¿Qué es WEB2.0?

El estallido de la burbuja de las puntocom en el otoño de 2001 marcó un punto de inflexión para Internet. Mucha gente llegó a la conclusión de que Internet estaba sobrevalorada y, de hecho, la burbuja de las puntocom y la posterior recesión del mercado de valores parecían características comunes de todas las revoluciones tecnológicas. Las grandes caídas del mercado de valores a menudo marcan el comienzo de una tecnología en auge que ocupa un lugar central. Los falsificadores fueron desterrados, las auténticas historias de éxito demostraron su poder y la gente empezó a comprender lo que distinguía una historia de otra.

El concepto de “Web 2.0” comenzó en un encuentro durante una sesión de lluvia de ideas entre O'Reilly y MediaLive International. El llamado pionero de Internet y vicepresidente de O'Reilly, Dale Dougherty, señala que, lejos del llamado "crash", Internet es más relevante que nunca, con nuevas y emocionantes aplicaciones y sitios. La tumba de la tumba todavía está mezclada y dispuesta a ¿Criar la base del halcón 8? ¿Plomo de neón? Cortar ┬ ¿Yi Xiujie la silla trasera? ¿Min Shua? ¿Cisne femenino de Xinghuo┕? ¿Toca el chun y cambia el gusano? Todos estamos de acuerdo con esta opinión y nació la conferencia Web 2.0.

Un año y medio después de esa reunión, el término "Web 2.0" se ha arraigado profundamente en los corazones de la gente, y más que nunca. En Google se pueden buscar 9,5 millones de enlaces. Sin embargo, aún no está claro el significado de la Web 2.0. Algunos la consideran simplemente un eslogan publicitario, mientras que otros la consideran una nueva idea tradicional. /p>

Este artículo intenta aclarar el significado original de Web 2.0

En nuestra lluvia de ideas original, hemos utilizado algunos ejemplos para expresar formalmente nuestra comprensión de Web 2.0:

Web 1.0 VS Web 2.0

DoubleClick VS Google AdSense

Ofoto VS Flickr

Akamai VS BitTorrent

mp3.com VS Napster

大英Britannica Online VS Wikipedia

Sitio web personal VS blogs

evite VS next.org y EVDB

Especulación de nombres de dominio VS motor de búsqueda Optimización

Visitas a la página VS coste por clic

Screen scraping (screen scraping) VS servicios web (servicios web)

Publicar VS Participar

Sistema de gestión de contenidos VS wiki

Directorio (categoría) VS etiqueta ("folksonomy", folksonomy)

Stickness VS agregación

La lista sigue y sigue. Pero, ¿qué es exactamente lo que nos hace llamar a una aplicación o enfoque "Web 1.0" y a otro "Web 2.0" (esta pregunta es particularmente urgente debido a esto? La idea de Web 2.0 se ha extendido tanto que muchas empresas están agregando el término). su exageración de marketing sin comprender realmente lo que significa. También es particularmente difícil porque muchas startups amantes de los eslóganes claramente no son Web 2.0, y algunas de las aplicaciones que consideramos Web 2.0, como Napster y BitTorrent, ¡ni siquiera son programas web adecuados! ) Comencemos explorando algunos de los principios plasmados en algunas de las historias de éxito de la Web 1.0, así como algunas de las nuevas aplicaciones más interesantes.

1. Internet como plataforma

Como muchos conceptos importantes, la Web 2.0 no tiene un límite claro, sino un núcleo gravitacional.

También podríamos pensar en la Web 2.0 como un conjunto de principios y prácticas, mediante los cuales los sitios web cercanos o lejanos al núcleo se organizan en un sistema de red similar al sistema solar. Estos sitios web encarnan más o menos los principios de la Web 2.0.

La Figura 1 es un "diagrama de simulación" de la Web 2.0, que se produjo en un taller en una conferencia llamada "Amigos de O'Reilly, FOO". Este diagrama todavía se encuentra en gran medida en la etapa de evolución, pero ya representa muchos conceptos derivados de las ideas centrales de la Web 2.0.

Por ejemplo, en la primera conferencia Web 2.0 en octubre de 2004, John Battelle y yo esbozamos un conjunto preliminar de principios en nuestros respectivos comentarios de apertura.

El primero de estos principios es "Internet como plataforma". Este fue también el grito de batalla de Netscape, el favorito de la Web 1.0, pero Netscape cayó en la guerra con Microsoft. Además, dos de nuestros primeros modelos a seguir de la Web 1.0, DoubleClick y Akamai, fueron pioneros en el uso de la Web como plataforma. La gente a menudo no piensa en esto como un servicio de red, pero de hecho, el servicio de publicidad fue el primer servicio de red ampliamente utilizado y también fue el primer mashup ampliamente utilizado si usa otras palabras recientemente populares. Cada anuncio publicitario está diseñado para funcionar sin problemas entre los dos sitios, entregando una página integrada a los lectores en otra computadora.

Akamai también considera la red como una plataforma y, en un nivel más profundo, construye una red transparente de distribución de contenido y almacenamiento en caché para reducir la congestión de la banda ancha.

No obstante, estos pioneros proporcionan comparaciones útiles, porque cuando los recién llegados encuentran los mismos problemas, pueden ampliar aún más las soluciones de los pioneros, obteniendo así una comprensión más profunda de la naturaleza de la nueva plataforma. DoubleClick y Akamai son pioneros de la Web 2.0. Al mismo tiempo, también podemos ver que se pueden realizar más aplicaciones introduciendo más patrones de diseño Web 2.0.

Echemos un vistazo más de cerca a cada uno de estos tres casos para explorar algunas de las diferencias esenciales.

Netscape vs. Google

Si se puede llamar a Netscape el abanderado de la Web 1.0, entonces es casi seguro que Google es el abanderado de la Web 2.0, basta con mirar su oferta pública inicial. está claro cómo revelan sus respectivas épocas. Empezamos entonces por las diferencias entre estas dos empresas y su posicionamiento.

Netscape perfila lo que llama "Internet como plataforma" en imitaciones de software tradicionales: su producto estrella es el navegador de Internet, una aplicación de escritorio. Al mismo tiempo, su estrategia es utilizar su dominio del mercado de navegadores para construir un mercado para sus costosos productos de servidores. En teoría, los estándares para controlar el contenido y los programas mostrados en los navegadores dieron a Netscape el mismo tipo de poder de mercado que Microsoft disfrutaba en el mercado de las computadoras personales. Al igual que el "carro sin caballos" original que representaba el automóvil como una extensión de lo familiar, Netscape promovió un webtop como una alternativa al escritorio tradicional, con planes de depender de las actualizaciones de información y los proveedores de información que compraron servidores Netscape impulsaron varios programas pequeños para Desarrollar y promover este tipo de escritorio en red.

Con el tiempo, los navegadores y los servidores web se convirtieron en "productos básicos" y la cadena de valor también avanzó en la prestación de servicios en la plataforma de Internet.

Por el contrario, Google nació como una aplicación web. Nunca vendió ni empaquetó sus programas, sino que los entregó como servicios. Los clientes pagan a Google directa o indirectamente por los servicios que utilizan. Los defectos originales de la industria del software han desaparecido. No más lanzamientos regulares de software, solo mejoras continuas. No más licencias ni ventas, solo úsalo.

En lugar de tener que migrar plataformas para que los usuarios puedan ejecutar software en sus dispositivos, simplemente cree una red masiva y escalable de PC que ejecuten sistemas operativos de código abierto y aplicaciones y herramientas locales a las que nunca pueda acceder nadie fuera de la empresa.

En el fondo, Google necesitaba una capacidad que Netscape nunca necesitó: la gestión de bases de datos. Google es mucho más que una simple colección de herramientas de software: es una base de datos especializada. Sin los datos, las herramientas son inútiles; sin el software, los datos son incontrolables. Los sistemas de licencias de software y el control de las interfaces de programación de aplicaciones (API), el arma mágica de una era anterior, ya no son relevantes porque el software de Google sólo necesita ser ejecutado y nunca distribuido, y porque sin capacidades de recopilación y gestión de datos, el software en sí es de poco uso. De hecho, el valor del software es directamente proporcional al tamaño y la actividad de los datos que ayuda a gestionar.

El servicio de Google no es un simple servidor, aunque se entrega a través de una colección a gran escala de servidores de Internet; su servicio no es un navegador, aunque este servicio es utilizado por los usuarios en el navegador experimentado. El producto estrella de Google, su servicio de búsqueda, ni siquiera aloja el contenido que permite a los usuarios buscar. Al igual que una llamada telefónica, ocurre no sólo en ambos extremos de la llamada, sino también en la red intermedia. Como intermediario entre los usuarios y sus experiencias en línea, Google actúa en el espacio entre los navegadores, los motores de búsqueda y, en última instancia, los servidores de contenidos.

Aunque tanto Netscape como Google pueden describirse como empresas de software, está claro que Netscape puede atribuirse a Lotus, Microsoft, Oracle, SAP y otras empresas que surgieron de la revolución del software de la década de 1980. mundo. Los socios de Google son empresas de Internet como eBay, Amazon, Napster, DoubleClick y Akamai.

DoubleClick versus Overture y AdSense

Al igual que Google, DoubleClick es un verdadero hijo de la era de Internet. Ofrece software como servicio, tiene competencias básicas en gestión de datos y, como se mencionó anteriormente, fue pionero en ofrecer servicios mucho antes de que los servicios web tuvieran siquiera un nombre. Sin embargo, DoubleClick se vio finalmente limitado por su modelo de negocio. Lo que implementa es el concepto de Internet de los años 90. Esta idea gira en torno a la publicación, no a la participación; en torno a la manipulación por parte de los anunciantes, no de los consumidores; y en torno a la escala, la idea de que Internet estará dominada por los llamados sitios principales en la escala de empresas de medición de publicidad en línea como MediaMetrix.

El resultado es, como DoubleClick cita con orgullo en su sitio web: "más de 2.000 solicitudes exitosas". En contraste, el mercado de búsqueda de Yahoo! (anteriormente Overture) y el producto AdSense de Google ya prestan servicios a cientos de miles de anunciantes.

El éxito de Overture y Google se debe a la comprensión de la llamada "cola larga" mencionada por Chris Anderson, es decir, el poder colectivo de muchos sitios web pequeños proporciona la mayor parte del contenido de Internet. El producto de DoubleClick requiere un contrato de venta formal y limita su mercado a unos pocos miles de sitios web grandes. Overture y Google descubrieron cómo colocar anuncios en casi cualquier página web. Además, evitan los formatos de anuncios preferidos por los editores y las agencias de publicidad, como los anuncios publicitarios y las ventanas emergentes, en favor de formatos de anuncios de texto mínimamente intrusivos, sensibles al contexto y fáciles de usar.

La experiencia de la Web 2.0 consiste en utilizar eficazmente el autoservicio del consumidor y la gestión algorítmica de datos para extender el alcance a todo Internet, a todos los bordes en lugar de solo al centro, y no a la cola larga. solo la cabeza.

No sorprende que otras historias de éxito de la Web 2.0 sigan la misma trayectoria. eBay actúa como un intermediario automatizado, haciendo posibles transacciones casuales de unos pocos dólares entre individuos. Napster (aunque desde entonces cerró por razones legales) construyó su red sobre una base de datos centralizada de canciones, pero gradualmente expandió su red al convertir a cada descargador en un servidor.

Akamai frente a BitTorrent

Al igual que DoubleClick, el enfoque empresarial de Akamai está en la cabeza de la red, no en la cola; está orientado hacia el centro, no hacia el borde; Si bien sirve a los intereses de los individuos en los márgenes de la red, allanando el camino para que accedan a sitios de alta demanda en el centro de Internet, sus ingresos aún provienen de sitios en el centro.

BitTorrent, al igual que otros defensores del movimiento P2P, ha adoptado un enfoque radical para lograr el objetivo de la descentralización de Internet. Cada cliente es también un servidor; el archivo se divide en muchas partes para que pueda servirse desde múltiples lugares de la red, aprovechando de forma transparente los descargadores de la red para proporcionar ancho de banda y datos a otros descargadores. De hecho, cuanto más popular es un archivo, más rápido se descarga porque más usuarios proporcionan ancho de banda y segmentos individuales para el archivo.

BitTorrent demuestra así un principio clave de la Web 2.0: cuantos más usuarios, mejor será el servicio. Por un lado, Akamai debe añadir servidores para mejorar los servicios, y por otro, los usuarios de BitTorrent aportan sus propios recursos a todos. Se puede decir que existe un "sistema de participación" implícito incorporado en las normas de cooperación. En este sistema de participación, el servicio desempeña principalmente el papel de un agente inteligente, que conecta varios bordes de la red, mientras aprovecha al máximo el propio poder del usuario.

2. Aprovechar la inteligencia colectiva

Detrás de las historias de éxito de aquellos gigantes que nacieron en la era de la Web 1.0, sobrevivieron y continúan liderando la era de la Web 2.0, hay un núcleo principio, es decir, utilizan el poder de Internet para utilizar la sabiduría colectiva:

--Los hipervínculos son la base de Internet. Cuando los usuarios agregan contenido nuevo y sitios web nuevos, estarán limitados a una estructura de red específica donde otros usuarios descubren el contenido y establecen enlaces. Al igual que las sinapsis en el cerebro, las redes interconectadas crecerán orgánicamente a medida que las conexiones entre sí se fortalezcan mediante la replicación y el refuerzo, como resultado directo de todas las actividades de todos los usuarios de la red.

--Yahoo! fue la primera gran historia de éxito, nacida de un catálogo, o catálogo de enlaces, una recopilación de los mejores trabajos de decenas de miles o incluso millones de usuarios de Internet. Aunque Yahoo! entró más tarde en el negocio de crear una variedad de contenidos, su papel como portal para recopilar las obras colectivas de los usuarios de Internet sigue siendo el núcleo de su valor.

--El gran avance de Google en las búsquedas reside en la tecnología PageRank, que rápidamente lo convirtió en el líder indiscutible en el mercado de las búsquedas. PageRank es un método que utiliza la estructura de enlaces de la red, en lugar de simplemente utilizar los atributos del documento, para lograr mejores resultados de búsqueda.

--El producto de eBay es la actividad colectiva de todos sus usuarios. Al igual que la red misma, eBay crece orgánicamente con las actividades de sus usuarios, y el papel de la empresa es el de habilitar un entorno y un usuario específicos. Las acciones ocurren en este entorno. Es más, la ventaja competitiva de eBay proviene casi en su totalidad de su masa crítica de compradores y vendedores, lo que hace que los productos de muchos de sus competidores sean significativamente menos atractivos.

--Amazon vende los mismos productos que competidores como Barnesandnoble.com, y estas empresas reciben las mismas descripciones de productos, imágenes de portada y catálogos de los vendedores. La diferencia es que Amazon ha creado una ciencia para estimular la participación de los usuarios.

Amazon tiene calificaciones de usuarios más de un orden de magnitud más altas que sus competidores, más invitaciones para involucrar a los usuarios de diversas maneras en casi todas las páginas y, lo que es más importante, utilizan la actividad de los usuarios para producir mejores resultados de búsqueda. Es probable que los resultados de búsqueda de Barnesandnoble.com apunten a los propios productos de la empresa o a resultados patrocinados, mientras que Amazon siempre lidera con lo que se llama "más popular", un cálculo en tiempo real basado no sólo en las ventas sino también en una serie de otros datos de Amazon. Los expertos llaman "flujo" a un factor que rodea al producto. Dado que la participación de los usuarios es un orden de magnitud mayor que la de sus rivales, no sorprende que Amazon venda más que sus competidores.

Ahora, las empresas innovadoras que poseen esta información y potencialmente la amplían están dejando su huella en Internet.

Wikipedia es una enciclopedia online basada en un concepto aparentemente imposible. La idea es que cualquier usuario de Internet pueda agregar una entrada y cualquier otra persona pueda editarla. Sin duda, este es un experimento extremo de confianza, que aplica la máxima de Eric Raymond (derivada del contexto del software de código abierto): "Con suficientes ojos, todos los defectos del programa serán eliminados". "Con suficientes ojos, todos los errores son superficiales". a la creación de contenidos. Wikipedia ya se encuentra entre los 100 sitios web más importantes del mundo y muchos creen que pronto estará entre los 10 primeros. Este es un cambio profundo en la creación de contenido.

Sitios como del.icio.us y Flickr han ganado mucha atención en los últimos tiempos y se han involucrado en lo que se ha llamado "folksonomía". pionero. La "clasificación de enfoque" es una forma de clasificar sitios web de forma colaborativa utilizando palabras clave seleccionadas libremente por los usuarios, y estas palabras clave generalmente se denominan etiquetas. El etiquetado utiliza asociaciones múltiples y superpuestas, como las que utiliza el propio cerebro, en lugar de categorías rígidas. Para dar un ejemplo clásico, en el sitio web de Flickr, una foto de un cachorro puede etiquetarse con "cachorro" y "lindo", lo que permite al sistema buscar de una manera natural que resulta del comportamiento del usuario.

Los productos colaborativos de filtrado de spam, como Cloudmark, agregan las muchas decisiones independientes que toman los usuarios de correo electrónico sobre si un correo electrónico es o no spam, en lugar de depender del análisis de los propios sistemas.

Es casi axiomático que los grandes triunfadores de Internet no promocionan activamente sus productos en todas partes. Utilizan "marketing viral", lo que significa que algunas referencias se transmiten directamente de un usuario a otro. Si un sitio web o un producto se basa en publicidad para su promoción, es casi seguro que se puede concluir que no es Web 2.0.

Incluso gran parte de la propia infraestructura de Internet, incluido el código Linux, Apache, MySQL y Perl, PHP o Python utilizado en la mayoría de los servidores web, se basa en la producción entre pares de código abierto. . Contiene una sabiduría colectiva, dada en red. Hay al menos 100.000 proyectos de software de código abierto enumerados en el sitio web SourceForge.net. Cualquiera puede agregar un proyecto y cualquiera puede descargar y usar el código del proyecto.

Al mismo tiempo, los nuevos proyectos migran del borde al centro como resultado del uso de los usuarios. Un proceso de aceptación orgánica de software se basa casi por completo en el marketing viral. Al mismo tiempo, los nuevos proyectos migran del borde al centro como resultado de la adopción por parte de los usuarios, un proceso orgánico de adopción de software que depende casi por completo del marketing viral.

La experiencia es la siguiente: el efecto de red derivado de las aportaciones de los usuarios es la clave para dominar el mercado en la era Web 2.0.

Las plataformas siempre vencen a las aplicaciones

En todas las competiciones del pasado, Microsoft ha utilizado con éxito la carta de la plataforma para derrotar incluso a las aplicaciones más dominantes. La plataforma Windows permitió a Microsoft reemplazar Lotus 1-2-3 por Excel, WordPerfect por Word y Netscape por Internet Explorer.

Pero esta vez, el conflicto no es entre plataforma y aplicación, sino entre dos plataformas. Cada plataforma tiene un modelo de negocio distinto: por un lado, un ISV tiene una amplia base de usuarios e integra estrechamente las API con el sistema operativo para controlar los patrones de programación. Los sistemas del propietario están vinculados entre sí mediante un conjunto de protocolos, estándares abiertos y una clara; comprensión de la colaboración.

Los sistemas Windows representan la cima del control propietario mediante interfaces de programas de software. Netscape intentó competir con Microsoft utilizando los mismos métodos que Microsoft utilizó para tratar con sus rivales, pero fracasó. Sin embargo, Apache, que tiene estándares abiertos para Internet, ha prosperado. La batalla librada esta vez ya no es una plataforma con disparidad de fuerza versus un software aislado, sino una plataforma versus una plataforma. La cuestión es qué plataforma, o más concretamente, qué sistema y qué modelo de negocio se adapta mejor a las oportunidades futuras.

Windows fue una excelente solución a los problemas de la era temprana de la PC. Unifica el campo de juego para los desarrolladores de programas y resuelve muchos de los problemas que afectan al campo. Pero este enfoque único, controlado por un único proveedor, ya no es una solución adecuada sino un problema. Los sistemas orientados a la comunicación requieren interoperabilidad, e Internet como plataforma ciertamente la requiere. A menos que el proveedor pueda controlar ambos terminales para cada interacción, la posibilidad de bloquear usuarios a través de la interfaz de programación del software es mínima.

Cualquier proveedor Web 2.0 que intente controlar la plataforma para comercializar aplicaciones ha, por definición, perdido los beneficios de la plataforma.

Esto no quiere decir que la oportunidad de bloqueo y ventaja competitiva ya no exista, pero creemos que esta oportunidad no se logra controlando las interfaces y protocolos de los programas de software. Están surgiendo nuevas reglas del juego. Aquellas empresas que puedan comprender estas nuevas reglas del juego, en lugar de intentar volver a las viejas reglas de la era del software para PC, probablemente tendrán éxito en la era de la Web 2.0.

Blogs y sabiduría colectiva

Una de las características más buscadas de la era Web 2.0 es el auge de los blogs. Las páginas de inicio personales han existido desde los primeros días de Internet, y los diarios personales y las columnas de opinión diarias se remontan aún más atrás, entonces, ¿a qué se debe tanto alboroto?

En definitiva, un blog es sólo una página web personal en forma de diario. Pero, como señala Rich Skrenta, la estructura cronológica del blog “parece un cambio trivial, pero impulsa una distribución, publicidad y cadena de valor muy diferentes”

Uno de los grandes cambios es una tecnología llamada RSS. . RSS es el avance más importante en la estructura fundamental de Internet desde que los primeros gurús de la informática se dieron cuenta de que CGI (Common Gateway Interface) podía usarse para crear sitios web basados ​​en bases de datos. RSS permite a las personas no sólo vincularse a una página web, sino también suscribirse a la página web y recibir notificaciones cada vez que la página cambia. Sgrenta llama a esto la "red incremental". Otros lo llaman la "web en vivo".

Por supuesto, los llamados "sitios web dinámicos" actuales (es decir, sitios web basados ​​en bases de datos con contenido generado dinámicamente) han reemplazado a los sitios web estáticos de hace una década. La vitalidad de un sitio web dinámico no reside sólo en las páginas web, sino también en los enlaces. Un enlace a un blog en línea en realidad apunta a una página web que se actualiza constantemente, incluidos "enlaces permanentes" a cualquiera de sus artículos, así como notificaciones para cada actualización. Por tanto, un RSS es mucho más potente que un marcador o un enlace a una única página web.

RSS también significa que los navegadores web ya no son sólo herramientas para navegar por la web.

Aunque los agregadores de RSS como Bloglines están basados ​​en la web, otros son programas de escritorio y otros pueden usarse en dispositivos portátiles para recibir contenido actualizado periódicamente.

RSS ahora se utiliza no sólo para enviar notificaciones de nuevas publicaciones de blog, sino también para una variedad de otras actualizaciones de datos, incluidas cotizaciones de bolsa, condiciones climáticas e imágenes. Este tipo de aplicaciones es en realidad un regreso a los orígenes de RSS: RSS nació en 1997 y es la convergencia de las dos tecnologías siguientes: una es la tecnología “Really Simple Syndication” de Dave Winer, utilizada para notificar actualizaciones de blogs; es la tecnología "Rich Site Summary" proporcionada por Netscape, que permite a los usuarios personalizar la página de inicio de Netscape con flujos de datos actualizados periódicamente. Más tarde, Netscape perdió interés y la tecnología fue heredada por Userland, una de las empresas de blogs pioneras de Wenner. Sin embargo, en la implementación actual de la aplicación, puedo ver el mismo efecto de ambos.

Sin embargo, RSS es sólo una parte de lo que diferencia a los blogs de las páginas web normales. Tom Coates comentó sobre la importancia de los enlaces permanentes:

“Puede parecer una característica mundana ahora, pero efectivamente transforma los blogs de una forma fácil de usar. El fenómeno de la facilidad de publicación se transformó aún más en una participación conversacional en comunidades que se cruzan. Por primera vez, se volvió tan fácil tomar una posición y hablar sobre publicaciones muy específicas en los sitios web de otras personas. Se produjeron discusiones, se produjeron chats y, como resultado, las amistades surgieron o se hicieron más fuertes. primer y más exitoso intento de construir puentes entre blogs. ”

En muchos sentidos, la combinación de RSS y enlaces fijos agrega muchas características de NNTP (Protocolo de noticias en red para grupos de noticias) a HTPP (Protocolo de Internet). La llamada "blogosfera" puede considerarse como un nuevo sentido entre pares en comparación con los primeros grupos de noticias y tableros de anuncios de Internet que utilizaban métodos conversacionales para alimentar el fenómeno de la equivalencia. Las personas no solo pueden suscribirse a los sitios de otros y vincular fácilmente a comentarios específicos en una página, sino que a través de un mecanismo llamado trackbacks, pueden saber que alguien más se ha vinculado a su página y pueden usar un vínculo recíproco o responder agregando un comentario.

Curiosamente, este tipo de enlaces bidireccionales era el objetivo de los primeros sistemas de hipertexto como Xanadu. Los puristas del hipertexto han celebrado las citas como un paso hacia la vinculación bidireccional. Sin embargo, cabe señalar que una notificación de referencia no es un verdadero vínculo bidireccional, sino más bien un vínculo unidireccional simétrico que (potencialmente) logra el efecto de un vínculo bidireccional. La diferencia puede parecer sutil, pero en realidad es enorme. Los sistemas de redes sociales como Friendster, Orkut y LinkedIn requieren la confirmación del destinatario para establecer una conexión y, por lo tanto, carecen de la escalabilidad de la propia arquitectura de Internet. Como señala Caterina Fake, cofundadora del servicio para compartir fotografías Flickr, sólo se presta atención cuando sucede. (Por lo tanto, Flickr permite a los usuarios configurar listas de vigilancia, es decir, cualquier usuario puede suscribirse a las secuencias de fotos de todos los demás usuarios a través de RSS. Los objetos de atención serán notificados, pero no tienen que reconocer la conexión).

Si la esencia de la Web 2.0 es utilizar la inteligencia colectiva para depurar Internet como el llamado cerebro global, entonces la blogósfera es el parloteo del prosencéfalo, el tipo de voz que se puede escuchar en toda nuestra cabeza. Puede que esto no refleje las estructuras profundas, a menudo inconscientes, del cerebro, pero es el equivalente al pensamiento consciente. Como reflejo del pensamiento y la atención conscientes, la blogósfera ha comenzado a tener un impacto poderoso.

En primer lugar, debido a que los motores de búsqueda utilizan la estructura de enlaces para ayudar a predecir páginas útiles, los bloggers, como los enlazadores más prolíficos y oportunos, desempeñan un papel desproporcionado en la configuración de los resultados de los motores de búsqueda. En segundo lugar, debido a que la comunidad de blogs es tan autorreferencial, los blogueros que siguen otros blogs amplían sus horizontes y habilidades. Además, la "cámara de eco" criticada por los críticos también es una especie de amplificador.

Blogging sería aburrido si fuera sólo un amplificador. Pero al igual que Wikipedia, los blogs utilizan la inteligencia colectiva como filtro. Lo que James Suriowecki llama "la sabiduría de las multitudes" entra en juego, y así como la técnica PageRank produce resultados que superan a cualquier documento analizado, los blogs El enfoque colectivo del círculo filtrará lo que es valioso.

Si bien los principales medios de comunicación pueden ver a los blogs individuales como competidores, es la competencia con la blogósfera en su conjunto lo que realmente la pondrá nerviosa. No se trata sólo de una competencia entre sitios web, sino también de una competencia entre modelos de negocio. El mundo de la Web 2.0 es también el mundo de lo que Dan Gillmor llama "Nosotros, los medios". En este mundo, es la llamada "audiencia original", no pocas personas en la densidad, quienes determinan lo que es importante.

3. Los datos son el próximo Intel Inside

Cada aplicación importante de Internet ahora está impulsada por una base de datos especializada: el rastreador web de Google, el directorio de Yahoo! (y el rastreador web), La base de datos de productos de Amazon, la base de datos de productos y vendedores de eBay, la base de datos de mapas de MapQuest, la biblioteca de canciones distribuidas de Napster. Como dijo Hal Varian en una conversación privada el año pasado, "SQL es el nuevo HTML". La gestión de bases de datos es una competencia central de las empresas Web 2.0, y su importancia es tal que a veces llamamos a estos programas "infoware" en lugar de simplemente software.

Este hecho también plantea una pregunta clave: ¿quién es el propietario de los datos?

En la era de Internet, es posible que hayamos visto casos en los que el control de las bases de datos condujo a la dominación del mercado y a enormes beneficios financieros. El monopolio sobre el registro de nombres de dominio otorgado originalmente por decreto del gobierno de Estados Unidos a Network Solutions (posteriormente adquirida por Verisign) fue la primera fuente de ingresos de Internet. Si bien sostenemos que generar ventajas comerciales mediante el control de las API del software será mucho más difícil en la era de Internet, no se puede decir lo mismo del control de los recursos de datos críticos, especialmente cuando esos recursos de datos son costosos de crear o proliferan fácilmente a través de los efectos de la red. atrás.

Preste atención a la declaración de derechos de autor debajo de cada mapa proporcionado por MapQuest, Maps.yahoo.com, Maps.msn.com o Maps.google.com. Encontrará la línea "Map Copyright NavTeq, TeleAtlas". " o, si utiliza un nuevo servicio de imágenes satelitales, "Imagen protegida por derechos de autor Digital Globe". Estas empresas han realizado importantes inversiones en sus bases de datos. (Solo NavTeq ha anunciado una inversión de 750 millones de dólares para crear su base de datos de direcciones y rutas. Digital Globe está invirtiendo 500 millones de dólares para lanzar sus propios satélites y mejorar las imágenes proporcionadas por el gobierno.) NavTeq realmente lo ha hecho. Hay muchas imitaciones del conocido Intel de Intel. Logotipo interior: los coches con sistema de navegación, por ejemplo, llevan el sello "NavTeq Onboard". Los datos son el Intel In de facto para muchos de estos programas.