¿Qué es el vídeo web2.0? ¿Puedes explicarlo en detalle?
El concepto de “Web 2.0” comenzó en una reunión, comenzando con una sesión de lluvia de ideas entre O'Reilly y MediaLive International. El llamado pionero de Internet, Dale Dougherty, vicepresidente de O'Reilly, señala que, a diferencia del llamado "colapso", Internet es más relevante que nunca, con nuevas aplicaciones y sitios web interesantes que crecen a un ritmo alarmante y aparecen patrones. Es más, las empresas que sobrevivieron a la burbuja de las puntocom parecen tener algunas similitudes. Entonces, ¿el estallido de la burbuja de las puntocom marcará un punto de inflexión para Internet, de modo que los llamados a la "Web 2.0" tengan sentido? Todos estuvimos de acuerdo con este punto de vista y nació la Conferencia Web 2.0.
En el año y medio transcurrido desde aquella reunión, el término "Web 2.0" se ha vuelto tan popular que se pueden encontrar más de 9,5 millones de enlaces en Google. Sin embargo, todavía existe un considerable desacuerdo sobre lo que significa Web 2.0. Algunos reducen la Web 2.0 a un eslogan de marketing incuestionable, mientras que otros la interpretan como un nuevo concepto tradicional.
Este artículo es un intento de aclarar el significado original de Web 2.0.
En nuestra lluvia de ideas inicial, utilizamos algunos ejemplos para ilustrar nuestra comprensión de la Web 2.0:
Web 1.0 Web 2.0
Doble clic en Google Ads
Ofoto Flickr
Akamabit Torrent
mp3.com·Napster
Wikipedia británica en línea (Wikipedia)
Blog de sitio web personal
Evit·upcoming.org y EVDB
Especulación de nombres de dominio SEO
Coste de páginas por clic
Servicio de red de raspado de pantalla (web servicio)
Participación en la publicación
Sistema de gestión de contenido wiki
Etiqueta de directorio (categoría) ("Taxonomía popular")
Agregación adhesiva
La lista continúa. Pero ¿qué nos hace llamar a una aplicación o enfoque "Web 1.0" y a otro "Web 2.0"? Esta pregunta es especialmente urgente porque el concepto de Web 2.0 se ha difundido tan ampliamente que muchas empresas están añadiendo el término a su publicidad sin entender realmente lo que significa. Al mismo tiempo, esta pregunta también es particularmente difícil, porque muchas empresas emergentes a las que les gustan los eslóganes obviamente no son Web 2.0. Algunas aplicaciones que consideramos Web 2.0, como Napster y BitTorrent, ¡ni siquiera son programas de red realmente adecuados! Analicemos primero algunos principios, plasmados en algunos casos exitosos de la Web 1.0, y algunas de las nuevas aplicaciones más interesantes.
1. Internet como plataforma
Como muchos conceptos importantes, la Web 2.0 no tiene límites claros, pero sí un núcleo de gravedad. También podríamos pensar en la Web 2.0 como un conjunto de principios y prácticas que forman un sistema de red similar al sistema solar a partir de sitios web centrales cercanos y lejanos. Estos sitios web encarnan más o menos los principios de la Web 2.0.
La Figura 1 es un "diagrama de simulación" de la Web 2.0, elaborado en un taller llamado conferencia "Amigos de O'Reilly (Foo)". El diagrama aún se encuentra en gran medida en su etapa de desarrollo, pero describe muchos conceptos derivados de las ideas centrales de la Web 2.0.
Por ejemplo, en la primera conferencia Web 2.0 en junio de 2004, John Bartley y yo esbozamos un conjunto preliminar de principios en nuestros comentarios de apertura.
El primero de estos principios es "Internet como plataforma". Éste fue también el grito de batalla de Netscape, el favorito de la Web 1.0, que cayó en la guerra con Microsoft. Además, nuestros dos modelos Web 1.0 anteriores, DoubleClick y Akamai, fueron pioneros en tratar Internet como una plataforma. La gente tiende a no pensar en ello como un servicio de red, pero de hecho, los servicios de publicidad fueron el primer servicio de red ampliamente utilizado y el primer mashup ampliamente utilizado, si uso otra palabra recientemente popular. Cada banner se utiliza para funcionar sin problemas frente a ambos sitios web y mostrar la página integrada a los lectores en otra computadora.
Akamai también utiliza la red como plataforma para construir una red transparente de distribución de contenido y almacenamiento en caché a un nivel más profundo para reducir la congestión de la banda ancha.
Sin embargo, estos pioneros proporcionan una comparación útil porque cuando los recién llegados encuentran el mismo problema, pueden ampliar aún más la solución del primero y así obtener una comprensión más profunda de la naturaleza de la nueva plataforma. DoubleClick y Akamai son pioneros de la Web 2.0. Al mismo tiempo, podemos ver que se pueden lograr más aplicaciones introduciendo más patrones de diseño Web 2.0.
Echemos un vistazo más de cerca a estos tres escenarios y exploremos algunas de las diferencias esenciales entre ellos.
Netscape vs. Google
Si se puede llamar a Netscape el abanderado de la Web 1.0, entonces es casi seguro que Google es el abanderado de la Web 2.0, basta con mirar su oferta pública inicial ( Sabrás cómo las IPO revelan sus respectivas épocas. Entonces, comencemos con las diferencias y el posicionamiento de estas dos empresas.
Netscape utilizó copias de software tradicionales para perfilar lo que llamó "Internet como plataforma": su producto estrella era el navegador de Internet, una aplicación de escritorio. Al mismo tiempo, su estrategia es utilizar su dominio del mercado de navegadores para construir un mercado para sus costosos productos de servidores. En teoría, los estándares que controlaban el contenido y los programas mostrados en los navegadores dieron a Netscape un dominio de mercado muy parecido al que disfrutaba Microsoft en el mercado de las PC. Al igual que "The Horseless Carriage" describe los automóviles como extensiones de cosas familiares, Netscape una vez promovió un webtop para reemplazar el escritorio tradicional y planeó confiar en actualizaciones de información y varios pequeños programas impulsados por proveedores de información que compraron servidores Netscape. Arriba web.
Con el tiempo, los navegadores y los servidores web se convirtieron en "necesidades cotidianas" y la cadena de valor ascendió a los servicios prestados en plataformas de Internet.
Por el contrario, Google es una aplicación web natural. Nunca vende ni empaqueta sus programas, sino que los entrega como un servicio. Los clientes pagan a Google, directa o indirectamente, por los servicios que utilizan. Resulta que todos los defectos de la industria del software han desaparecido. No hay lanzamientos regulares de software, sólo mejoras continuas. Sin licencia ni venta, solo úsalo como quieras. Los usuarios pueden ejecutar el software en sus propios dispositivos sin necesidad de migrar la plataforma. Todo lo que necesitan hacer es construir una red vasta y escalable de muchas PC en las que se ejecutará el sistema operativo de código abierto y sus aplicaciones y herramientas locales, algo que nadie fuera de la empresa podrá tocar jamás.
Básicamente, Google necesitaba una capacidad que Netscape nunca había necesitado: la gestión de bases de datos. Google es mucho más que una colección de herramientas de software: es una base de datos especializada. Sin los datos, esas herramientas son inútiles; sin el software, los datos están fuera de control. El sistema de licencias de software y el control sobre las interfaces de programación de aplicaciones (API), el arma mágica de la era anterior, son irrelevantes porque el software de Google sólo necesita ser ejecutado, nunca distribuido, y porque el software en sí no tiene capacidad para recopilar y gestionar datos. Es inútil. De hecho, el valor del software es directamente proporcional al tamaño y la actividad de los datos que ayuda a gestionar.
El servicio de Google no es un simple servidor, aunque sus servicios se prestan a través de una colección a gran escala de servidores de Internet. Su servicio no es un navegador, aunque los usuarios experimentan este servicio en el navegador. El principal servicio de búsqueda de Google ni siquiera aloja lo que buscan los usuarios. Al igual que una conversación telefónica, ocurre no sólo en ambos extremos de la llamada, sino también en la red intermediaria. Como intermediario entre los usuarios y sus experiencias en línea, Google opera en el espacio entre los navegadores, los motores de búsqueda y, en última instancia, los servidores de contenidos.
Aunque tanto Netscape como Google pueden describirse como empresas de software, es obvio que Netscape pertenece al mundo del software compuesto por Lotus, Microsoft, Oracle, SAP y otras empresas que se originaron a partir de la revolución del software de los años 80. . Los socios de Google son empresas de Internet como eBay, Amazon, Napster, DoubleClick y Akamai.
Overture de doble clic y AdSense
Al igual que Google, DoubleClick es un verdadero producto de la era de Internet. Trata el software como un servicio y tiene competencias básicas en la gestión de datos. Como se mencionó anteriormente, fue pionero en servicios mucho antes de que existiera el nombre de servicios de red. Sin embargo, DoubleClick se vio finalmente limitado por su modelo de negocio. Lo que implementa es el concepto de Internet de los años 90. El concepto gira en torno a la distribución, no al compromiso; en torno a la manipulación del anunciante más que al consumidor; y en torno a la escala, la idea de que Internet estará dominada por los llamados sitios principales en la escala de empresas de medición de publicidad en línea como MediaMetrix.
Como resultado, DoubleClick se enorgullece de citar "más de 2000 aplicaciones exitosas" en su sitio web. Por el contrario, Yahoo! El mercado de búsqueda de la empresa (anteriormente Overture) y el producto AdSense de Google han prestado servicios a cientos de miles de anunciantes.
El éxito de Overture y Google surge de la comprensión de lo que Chris Anderson llama la llamada "cola larga", el poder colectivo de muchos sitios web pequeños que proporcionan la mayor parte del contenido de Internet. El producto de DoubleClick requiere un contrato de venta formal y su mercado se limita a unos pocos miles de sitios web grandes. Overture y Google saben cómo colocar anuncios en casi cualquier página web. Una vez más, evitan los formatos publicitarios preferidos por los editores y las agencias de publicidad, como los banners y las ventanas emergentes, en favor de formatos publicitarios basados en texto que son mínimamente intrusivos, sensibles al contexto y fáciles de usar.
La experiencia de la Web 2.0 consiste en utilizar eficazmente el autoservicio del consumidor y la gestión algorítmica de datos, lo que nos permite extender nuestros tentáculos a todo Internet, a todos los bordes, no solo al centro, y a la cola larga. . No sólo la cabeza.
No sorprende que otras historias de éxito de la Web 2.0 muestren la misma trayectoria. EBay actúa como un intermediario automatizado, lo que permite a las personas realizar transacciones ocasionales de unos pocos dólares. Napster (que cerró por razones legales) construyó su red sobre una base de datos centralizada de canciones, pero gradualmente expandió la red al convertir cada descargador en un servidor.
Akamai frente a BitTorrent
Al igual que DoubleClick, el negocio de Akamai se centra en la cabeza de la red, no en la cola: mira hacia el centro, no hacia el borde; Si bien sirve a los intereses de las personas en el borde de la red, allanando el camino para que accedan a sitios de alta demanda en el centro de Internet, sus ingresos aún provienen de esos sitios en el centro.
BitTorrent, al igual que otros defensores de la tendencia P2P, ha adoptado un enfoque radical hacia el objetivo de descentralizar Internet. Cada cliente es también un servidor; el archivo se divide en muchos segmentos, por lo que se puede servir desde muchos lugares de la red, utilizando de forma transparente descargadores de red para proporcionar ancho de banda y datos a otros descargadores. De hecho, cuanto más popular es un archivo, más rápido se descarga porque más usuarios proporcionan ancho de banda y fragmentación para el archivo.
BitTorrent demuestra así un principio clave de la Web 2.0: cuantos más usuarios, mejor será el servicio. Por un lado, Akamai debe añadir servidores para mejorar los servicios, y por otro lado, los usuarios de BitTorrent aportarán sus recursos a todos. Se puede decir que existe un “sistema de participación” oculto integrado en los estándares de cooperación. En este sistema participativo, los servicios desempeñan principalmente el papel de agentes inteligentes, conectando todos los bordes de la red y aprovechando plenamente el poder de los propios usuarios.
Aprovechar la sabiduría colectiva
Detrás de las historias de éxito de aquellos gigantes que nacieron en la era de la Web 1.0 y sobrevivieron, y seguirán liderando la era de la Web 2.0, hay un principio fundamental , es decir, aprovecharon el poder de la web, aprovechando la inteligencia colectiva:
-Los hipervínculos son la base de Internet. Cuando los usuarios agregan contenido nuevo y sitios nuevos, están restringidos a una estructura de red específica que otros usuarios descubren y vinculan. Al igual que las sinapsis en el cerebro, a medida que las conexiones entre ellas se vuelven más fuertes mediante la replicación y el refuerzo, la red interconectada crecerá orgánicamente como resultado directo de todas las actividades de todos los usuarios de la red.
Yahoo! Se trata de uno de los primeros grandes casos de éxito, nacido de catálogos, o catálogos de enlaces, resúmenes de los mejores trabajos de decenas de miles o incluso millones de internautas. Aunque más tarde Yahoo! Se ha metido en el negocio de la creación de todo tipo de contenidos, pero su papel como portal para el trabajo colectivo de los usuarios de la web sigue siendo el núcleo de su valor.
-El gran avance de Google en la búsqueda fue su tecnología PageRank, que rápidamente lo convirtió en el líder indiscutible en el mercado de las búsquedas. PageRank es un método que utiliza la estructura de enlaces de la web, en lugar de solo las propiedades de los documentos, para lograr mejores resultados de búsqueda.
- Los productos de eBay son una actividad colectiva para todos sus usuarios. Al igual que la propia Web, eBay creció orgánicamente con la actividad de los usuarios, y el papel de la empresa era facilitar el entorno específico en el que tenían lugar las acciones del usuario. Es más, la ventaja competitiva de eBay proviene casi exclusivamente de su gran número de compradores y vendedores clave, lo que hace que los productos de muchos competidores sean menos atractivos.
-Amazon vende los mismos productos que competidores como Barnesandnoble.com, que obtienen las mismas descripciones de producto, imágenes de portada y catálogos de los vendedores. La diferencia es que Amazon ha creado una ciencia para motivar la participación de los usuarios. Amazon tiene calificaciones de usuarios más de un orden de magnitud más altas que sus competidores, más invitaciones para involucrar a los usuarios de diversas maneras en casi todas las páginas y, lo que es más importante, aprovechan la actividad de los usuarios para producir mejores resultados de búsqueda. Es probable que los resultados de búsqueda en Barnesandnoble.com apunten a los propios productos de la empresa o a resultados patrocinados, mientras que Amazon siempre comienza con lo que se llama "más popular", un cálculo en tiempo real basado no sólo en las ventas sino también en información privilegiada de Amazon. "tráfico" alrededor del producto. Dado que la participación de los usuarios es un orden de magnitud mayor que la de sus competidores, no sorprende que Amazon venda más que sus competidores.
Ahora, las empresas innovadoras que poseen esta información y potencialmente la amplían están dejando su huella en Internet.
Wikipedia es una enciclopedia online basada en un concepto aparentemente imposible. La idea es que cualquier usuario de Internet pueda agregar una entrada y cualquiera pueda editarla. Sin duda, es un experimento extremo de confianza, que aplica la máxima de Eric Raymond (que tiene experiencia en software de código abierto): "Con suficientes ojos, todos los errores son superficiales". Wikipedia ya es uno de los 100 sitios web más importantes del mundo y muchos creen que pronto entrará entre los 10 primeros. Esta es una profunda transformación en la creación de contenidos.
En sitios web como del.icio.us (marcadores deliciosos) y Flickr, la empresa ha ganado recientemente amplia atención como pionera en el concepto de "folksonomía" (diferente de la clasificación tradicional).
La "clasificación de enfoque" es una forma de clasificar sitios web de forma colaborativa utilizando palabras clave seleccionadas libremente por los usuarios. Estas palabras clave generalmente se denominan etiquetas. El etiquetado utiliza asociaciones múltiples y superpuestas, como las que usa el propio cerebro, en lugar de categorías estrictas. Como ejemplo clásico, en Flickr, una foto de un cachorro puede etiquetarse como “cachorro” y “lindo”, lo que permite al sistema buscar de una manera natural que resulta del comportamiento del usuario.
Los productos colaborativos de filtrado de spam, como Cloudmark, recopilan las muchas decisiones independientes de los usuarios de correo electrónico sobre si un correo electrónico es spam, lo cual es mejor que los sistemas que dependen del análisis del correo electrónico en sí.
Es casi una perogrullada que las personas que tienen un gran éxito en Internet no promocionan activamente sus productos en todas partes. Utilizan un enfoque de "marketing viral", lo que significa que algunas promociones se difunden directamente de un usuario a otro. Cómo un sitio web o un producto se basa en la publicidad para promocionarlo, casi se puede concluir que no es Web 2.0.
Incluso gran parte de la infraestructura de Internet, incluido el código Linux, Apache, MySQL, Perl, PHP o Python utilizado en la mayoría de los servidores web, se basa en equivalentes de código abierto. Contiene la sabiduría aportada por colectivos y redes. Hay al menos 654,38 millones de proyectos de software de código abierto en el sitio web SourceForge.net. Cualquiera puede agregar un proyecto y cualquiera puede descargar y usar el código del proyecto.
Al mismo tiempo, los nuevos proyectos migran del borde al centro como resultado de su uso por parte de los usuarios. El proceso de aceptación orgánica del software se basa casi por completo en el marketing viral. Al mismo tiempo, los nuevos proyectos se mueven de la periferia al centro como resultado de la adopción por parte de los usuarios, un proceso orgánico de adopción de software que depende casi por completo del marketing viral.
La experiencia es que el efecto de red de las contribuciones de los usuarios es la clave para dominar el mercado en la era Web 2.0.
Las plataformas siempre triunfan sobre las aplicaciones.
En todas las competiciones anteriores con sus oponentes, Microsoft ha jugado con éxito su carta de plataforma, derrotando incluso a las aplicaciones más ventajosas. La plataforma Windows permitió a Microsoft reemplazar Lotus 1-2-3 por Excel, WordPerfect por Word y Netscape por Internet Explorer.
Pero esta vez, el conflicto no es entre plataforma y aplicación, sino entre dos plataformas. Cada plataforma tiene un modelo de negocio completamente diferente: por un lado, un proveedor de software independiente tiene una amplia base de usuarios, integra estrechamente la interfaz del programa de aplicación con el sistema operativo y, por lo tanto, controla el modelo de programación de los sistemas, vinculados por un conjunto de protocolos; , estándares abiertos y conocimiento colaborativo.
Los sistemas Windows representan el pináculo del control propietario de las interfaces de los programas de software. Netscape intentó competir con Microsoft de la misma manera que Microsoft solía competir con sus rivales, pero fracasó. Sin embargo, Apache, con sus estándares abiertos de Internet, prosperó. La batalla librada esta vez ya no es de software aislado entre plataformas con disparidad de fuerza, sino de plataforma contra plataforma. La cuestión es qué plataforma, o más concretamente, qué sistema y qué modelo de negocio se adapta mejor a las oportunidades futuras.
Windows fue una gran solución a los problemas de la era temprana de la PC. Unifica el campo para los desarrolladores de programas y resuelve muchos de los problemas que afectan a este campo. Sin embargo, este enfoque único controlado por un único proveedor ya no es una solución adecuada y se ha convertido en un problema. Los sistemas orientados a la comunicación requieren colaboración, al igual que Internet como plataforma. A menos que el proveedor pueda controlar ambos puntos finales para cada interacción, la probabilidad de bloquear a los usuarios a través de la interfaz del programa del software es mínima.
Por definición, cualquier proveedor Web 2.0 que intente promocionar aplicaciones a través de una plataforma de control pierde las ventajas de esta plataforma.
Esto no quiere decir que la oportunidad de bloqueo y ventaja competitiva ya no exista, pero no creemos que esta oportunidad se obtenga controlando las interfaces y protocolos de los programas de software. Están surgiendo nuevas reglas del juego.
Sólo las empresas que puedan comprender estas nuevas reglas del juego, en lugar de intentar volver a las viejas reglas de la era del software para PC, tendrán éxito en la era de la Web 2.0.
Blogging y sabiduría colectiva
Una de las características más populares de la era Web 2.0 es el auge de los blogs. Las páginas de inicio personales han existido desde los primeros días de Internet, y los diarios personales y las columnas diarias que expresan opiniones tienen una larga historia. Entonces, ¿a qué se debe tanto alboroto?
En última instancia, un blog es sólo una página web personal en forma de diario. Pero como señala Rich Skrenta, la estructura temporal de los blogs "parece un cambio trivial, pero impulsa una distribución, publicidad y cadena de valor muy diferentes".
Uno de ellos El principal cambio es una tecnología llamada RSS . RSS es el avance más importante en la infraestructura de Internet desde que los primeros expertos en informática se dieron cuenta de que CGI (Common Gateway Interface) podría usarse para crear sitios web basados en bases de datos. RSS permite a las personas no sólo vincularse a una página web, sino también suscribirse a ella para recibir notificaciones cuando cambie. Skrenta lo llama una "red incremental". Otros lo llaman una "red viva".
Por supuesto, los llamados "sitios web dinámicos" (es decir, sitios web impulsados por bases de datos con contenido generado dinámicamente) reemplazaron a los sitios web estáticos hace diez años. La vitalidad de un sitio web dinámico no reside sólo en las páginas, sino también en los enlaces. Un enlace a un blog en línea en realidad apunta a una página web que se actualiza constantemente, incluyendo un "enlace permanente" a cualquier artículo y una notificación de cada actualización. Por tanto, RSS es mucho más potente que los marcadores o los enlaces a páginas web individuales.
RSS también significa que el navegador web ya no es sólo una herramienta para navegar por la web. Si bien los agregadores de RSS como Bloglines están basados en la web, otros son programas de escritorio y algunos pueden usarse en dispositivos portátiles para recibir contenido actualizado periódicamente.
RSS ahora se utiliza no sólo para enviar notificaciones de nuevas publicaciones de blog, sino también para una variedad de otras actualizaciones de datos, incluidas cotizaciones de bolsa, condiciones climáticas e imágenes. Esta aplicación es en realidad un regreso a los orígenes de RSS: RSS nació en 1997 y es una fusión de dos tecnologías: una es la tecnología "Really Simple Syndication" de Dave Winer, que se utiliza para notificar actualizaciones de blogs, la otra es "Provee" de Netscape; Rich Site Snippets" que permite a los usuarios personalizar la página de inicio de Netscape con un flujo de datos actualizado periódicamente. Más tarde, Netscape perdió interés y la tecnología pasó a manos de Userland, la empresa pionera en blogs de Wenner. Sin embargo, en la implementación actual de la aplicación, veo que la funcionalidad de ambas es la misma.
Sin embargo, RSS es sólo una parte de la razón por la que los blogs son diferentes de las páginas web normales. Tom Coates comentó sobre la importancia de los enlaces permanentes: "Puede parecer una característica mundana ahora, pero efectivamente transformó los blogs de un fenómeno fácil de publicar a una conversación entre comunidades. Compromiso. Por primera vez fue tan fácil expresar y hablar sobre publicaciones muy específicas en sitios de otras personas, y el resultado fue una amistad o incluso una amistad más fuerte en el blog. El primer y más exitoso intento de construir un puente entre HTPP y NNTP fue en muchos sentidos la combinación de RSS y característica de enlaces fijos. La llamada "blogosfera" puede verse como un nuevo fenómeno entre pares en comparación con los grupos de noticias y los tableros de anuncios de los primeros días de Internet. Las personas no sólo pueden suscribirse cómodamente a los sitios de otros y vincularse a un comentario específico en una página, sino que también pueden saber quién más se ha vinculado a su página a través de un mecanismo llamado trackbacks y pueden hacerlo vinculándose entre sí o agregando un comentario. . responder.
Curiosamente, este tipo de enlace bidireccional era el objetivo de los primeros sistemas de hipertexto como Xanadu. Los puristas del hipertexto saludan las notificaciones de citas como un paso hacia la vinculación bidireccional. Pero cabe señalar que la notificación de referencia no es un verdadero vínculo bidireccional, sino un vínculo unidireccional simétrico que (potencialmente) logra el efecto de un vínculo bidireccional.
La diferencia puede parecer sutil, pero en realidad es enorme. Los sistemas de redes sociales, como Friendster, Orkut y LinkedIn, requieren la confirmación del destinatario para establecer una determinada conexión y, por tanto, carecen de la escalabilidad de la propia arquitectura de Internet. Como señala Caterina Fake, cofundadora del servicio para compartir fotografías Flickr, la atención sólo se recompensa cuando ocurre. (Por lo tanto, Flickr permite a los usuarios configurar listas de seguimiento, es decir, cualquier usuario puede suscribirse a las secuencias de fotos de todos los demás usuarios a través de RSS. El sujeto de atención será notificado, pero no necesariamente reconoce la conexión).
Si Una de las esencias de la Web 2.0 es utilizar la sabiduría colectiva para depurar Internet en el llamado cerebro global. Entonces la blogósfera es el parloteo del cerebro, el tipo de voz que se puede escuchar en nuestras cabezas. Puede que esto no refleje la estructura profunda del cerebro, que a menudo es inconsciente, pero es equivalente al pensamiento consciente. Como reflejo de un pensamiento y una preocupación conscientes, la blogósfera ha comenzado a ejercer una poderosa influencia.
En primer lugar, debido a que los motores de búsqueda utilizan la estructura de enlaces para ayudar a predecir páginas útiles, los blogueros, como los enlazadores más prolíficos y oportunos, desempeñan un papel desproporcionado en la configuración de los resultados de los motores de búsqueda. En segundo lugar, los blogueros que siguen otros blogs amplían sus horizontes y capacidades porque son citados muchas veces por la comunidad de blogs. Además, la "cámara de eco" criticada por los críticos es también un amplificador.
Blogging se vuelve aburrido si es sólo un amplificador. Pero al igual que Wikipedia, los blogs utilizan la sabiduría colectiva como filtro. La ley de "sabiduría de las multitudes" de James Suriowecki es cierta, y así como la técnica PageRank produce mejores resultados que cualquier documento analizado, la atención colectiva de la blogósfera filtra lo valioso.
Si bien los principales medios de comunicación pueden ver a los blogs individuales como competidores, lo que realmente los pondrá nerviosos será la competencia con la blogósfera en su conjunto. No se trata sólo de competencia entre sitios web, sino también de competencia entre modelos de negocio. El mundo de la Web 2.0 es también un mundo de lo que Dan Gill llama "nosotros, los medios". En este mundo, es la llamada "audiencia original" la que determina lo que es importante, no unas pocas personas en una trastienda.
3. Los datos son el próximo Intel Inside.
Cada aplicación importante de Internet ahora está controlada por una base de datos especial: el rastreador web de Google, Yahoo! Catálogos (y rastreadores web), base de datos de productos de Amazon, base de datos de productos y proveedores de eBay, base de datos de mapas de MapQuest, biblioteca de canciones distribuidas de Napster. Como dijo Hal Varian en una conversación privada el año pasado, "SQL es el nuevo HTML". La gestión de bases de datos es una competencia central de las empresas Web 2.0, tan importante que a veces nos referimos a estos programas como "infoware" en lugar de simplemente software.
Este hecho también plantea una pregunta clave: ¿quién es el propietario de los datos?
En la era de Internet, es posible que hayamos visto algunos casos en los que el control de las bases de datos condujo al dominio del mercado y a enormes beneficios económicos. El monopolio sobre el registro de nombres de dominio fue autorizado originalmente por decreto del gobierno de Estados Unidos a Network Solutions (posteriormente adquirida por Verisign) y alguna vez fue el primer árbol de dinero en Internet. Si bien sostenemos que será mucho más difícil obtener ventajas comerciales controlando las API de software en la era de Internet, no se puede decir lo mismo del control de recursos de datos críticos, especialmente cuando crear estos recursos de datos es muy costoso o es fácil aumentar los retornos. a través de efectos de red.
Tenga en cuenta el aviso de derechos de autor debajo de cada mapa proporcionado por MapQuest, mapas.yahoo.com, mapas.msn.com o mapas.google.com, que encontrará si utiliza el nuevo servicio de imágenes satelitales " Mapa copyright NavTeq, TeleAtlas" o "Imagen copyright Digital Earth" y otras palabras. Estas empresas invierten mucho en sus bases de datos.
(Solo NavTeq anunció una inversión de 750 millones de dólares para crear su base de datos de direcciones y direcciones de calles. Digital Earth invirtió 500 millones de dólares para lanzar su propio satélite y mejorar las imágenes proporcionadas por el gobierno. De hecho, NavTeq imita mucho el conocido logotipo Intel Inside de Intel. : Por ejemplo, un automóvil con sistema de navegación tiene la etiqueta "NavTeq Onboard". Los datos son en realidad la información interna de muchos de estos programas y la única fuente de información para algunos sistemas.