Links Web 1.0 vs Web 2.0

Web 1.0 es una red que permite leer.

Web 2.0 es una extensión, que permite leer y escribir, concediendo a los usuarios un papel activo.

Web 3.0 podría extender este papel permitiendo que la gente además de “leer y escribir” pueda modificar el sitio web.

Web 1.0 + Web 2.0 = Web 3.0. Simple y colaborativo.

Mapa mental de la Web 2.0

Mapa mental de la Web 2.0

Comparación con la «Web 1.0»

De acuerdo con Tim O’Reilly, la Web 2.0 puede ser comparada con la Web 1.0 de esta manera:

Web 1.0 Web 2.0
DoubleClick Google AdSense
Ofoto Flickr
Akamai BitTorrent
mp3.com Napster
Enciclopedia Británica Wikipedia
webs personales blogging
evite upcoming.org y EVDB
especulación de nombres de dominios optimización de los motores de búsqueda
páginas vistas coste por clic
screen scraping servicios web
publicar participación
sistema de gestión de contenidos wiki
directorios (taxonomía) etiquetas (folcsonomía)
stickiness sindicación

myspace.com

http://es.myspace.com/

MySpace o MySpace.com es un sitio web de interacción social formado por perfiles personales de usuarios que incluye redes de amigos, grupos, blogs, fotos, vídeos y música, además de una red interna de mensajería que permite comunicarse a unos usuarios con otros y un buscador interno. Fue creado por Tom Anderson y en la actualidad es propiedad de News Corporation, cuenta con 300 empleados, con 200.623.371 usuarios (en septiembre de 2007) y su velocidad de crecimiento es de unos 230.000 usuarios al día. Su sede central se encuentra en Santa Monica, California, Estados Unidos y además tiene otra sede y servidor en la ciudad de Nueva York, Estados Unidos. Según el sitio web Alexa dedicado a medir el tráfico de internet, MySpace es el sexto sitio más visitado de toda la red[1] y el cuarto sitio más visitado de la red de lengua inglesa.

MySpace comenzó a crecer, a extenderse y ganar popularidad y usuarios lentamente hasta llegar al punto de convertirse en algo fuera de lo común y en una revolución social, especialmente en Estados Unidos donde MySpace es el sitio web más visitado tras Yahoo!, MSN, Google y YouTube y hasta el punto en el que la mayoría de la población del país conoce el servicio y es muy habitual, especialmente entre jóvenes y adolescentes estadounidenses, ser usuario de MySpace. En la actualidad el servicio se está extendiendo mundialmente y ganando usuarios de otros países.

Entre sus posibilidades, MySpace ofrece perfiles especiales para músicos y sus usuarios usan el servicio con diversos y diferentes fines, entre ellos el comunicarse con amigos y/o familiares, el conocer gente, por motivos de trabajo, el promocionarse o como un lugar en el que encontrar citas, entre otros. En Latinoamerica y España la barrera del idioma ha impedido hasta ahora que se extienda su uso, aunque ya existe una versión beta del web en castellano.

WIKIS para todos, gratis y sin publicidad

Un wiki, o una wiki, es un sitio web cuyas páginas web pueden ser editadas por múltiples lectores a través del navegador web. Los usuarios pueden crear, modificar o borrar un mismo texto que comparten. Los textos o «páginas wiki» tienen títulos únicos. Si se escribe el título de una «página-wiki» en algún lugar del wiki, esta palabra se convierte en un «enlace web» (o «link«) a la página web. Es una biblioteca global y colaborativa.

En una página sobre «alpinismo» puede haber una palabra como «piolet» o «brújula» que esté marcada como palabra perteneciente a un título de página wiki. La mayor parte de las implementaciones de wikis, indican en el URL de la página el propio título de la página wiki (en esta wikipedia ocurre así: http://es.wikipedia.org/wiki/Alpinismo ), facilitando el uso y comprensibilidad del link fuera del propio sitio web. Y formando muchas veces una coherencia nombrativa, generando una ordenación natural del contenido.

La aplicación de mayor calado y a la que le debe su mayor fama hasta el momento, ha sido la creación de enciclopedias colaborativas, género al que pertenece la Wikipedia. Muchas otras aplicaciones más cercanos a la coordinación de informaciones y acciones, o la puesta en común de conocimientos o textos dentro de grupos existen.

La mayoría de los wikis actuales conservan un historial de cambios que permite recuperar fácilmente cualquier estado anterior y ver ‘quien’ hizo cada cambio. Facilitando enormemente el mantenimiento conjunto y el control de usuarios destructivos. Normalmente sin una revisión previa, se actualiza el contenido que muestra la página wiki editada.

Historia

El origen de los wikis está en la comunidad de patrones de diseño, cuyos integrantes los utilizaron para escribir y discutir patrones de programación. El primer WikiWikiWeb fue creado por Ward Cunningham, quien inventó y dio nombre al concepto wiki, y produjo la primera implementación de un servidor WikiWiki para el repositorio de patrones del Portland (Portland Pattern Repository) en 1995. En palabras del propio Cunningham, un wiki es «la base de datos en línea más simple que pueda funcionar» (the simplest online database that could possibly work). El wiki de Ward aún es uno de los sitios wiki más populares.

En enero de 2001, los fundadores del proyecto de enciclopedia Nupedia, Jimbo Wales y Larry Sanger, decidieron utilizar un wiki como base para el proyecto de enciclopedia Wikipedia. Originalmente se usó el software UseMod, pero luego crearon un software propio, MediaWiki, que ha sido adoptado después por muchos otros wikis.

Actualmente, el wiki más grande que existe es la versión en inglés de Wikipedia, seguida por varias otras versiones del proyecto. Los wikis ajenos a Wikipedia son mucho más pequeños y con menor participación de usuarios, generalmente debido al hecho de ser mucho más especializados. Es muy frecuente por ejemplo la creación de wikis para proveer de documentación a programas informáticos, especialmente los desarrollados en software libre.

Ventajas

La principal utilidad de un wiki es que permite crear y mejorar las páginas de forma instantánea, dando una gran libertad al usuario, y por medio de una interfaz muy simple. Esto hace que más gente participe en su edición, a diferencia de los sistemas tradicionales, donde resulta más difícil que los usuarios del sitio contribuyan a mejorarlo.

Dada la gran rapidez con la que se actualizan los contenidos, la palabra «wiki» adopta todo su sentido. El documento de hipertexto resultante, denominado también «wiki» o «WikiWikiWeb», lo produce típicamente una comunidad de usuarios. Muchos de estos lugares son inmediatamente identificables por su particular uso de palabras en mayúsculas, o texto capitalizado; uso que consiste en poner en mayúsculas las iniciales de las palabras de una frase y eliminar los espacios entre ellas, como por ejemplo en EsteEsUnEjemplo. Esto convierte automáticamente a la frase en un enlace. Este wiki, en sus orígenes, se comportaba de esa manera, pero actualmente se respetan los espacios y sólo hace falta encerrar el título del enlace entre dos corchetes.

Características

Un wiki permite que se escriban artículos colectivamente (co-autoría) por medio de un lenguaje de wikitexto editado mediante un navegador. Una página wiki singular es llamada «página wiki», mientras que el conjunto de páginas (normalmente interconectadas mediante hipervínculos) es «el wiki». Es mucho más sencillo y fácil de usar que una base de datos.

Una característica que define la tecnología wiki es la facilidad con que las páginas pueden ser creadas y actualizadas. En general no hace falta revisión para que los cambios sean aceptados. La mayoría de wikis están abiertos al público sin la necesidad de registrar una cuenta de usuario. A veces se requiere hacer login para obtener una cookie de «wiki-firma», para autofirmar las ediciones propias. Otros wikis más privados requieren autenticación de usuario.

Páginas y edición

En un wiki tradicional existen tres representaciones por cada página:

  • El «código fuente», editable por los usuarios. Es el formato almacenado localmente en el servidor. Normalmente es texto plano, sólo es visible para el usuario cuando la operación «Editar» lo muestra.
  • Una plantilla (puede que generada internamente) que define la disposición y elementos comunes de todas las páginas.
  • El código HTML, renderizado a tiempo real por el servidor a partir del código fuente cada vez que la página se solicita.

El código fuente es potenciado mediante un lenguaje de marcado simplificado para hacer varias convenciones visuales y estructurales. Por ejemplo, el uso del asterisco «*» al empezar una línea de texto significa que se renderizará una lista desordenada de elementos (bullet-list). El estilo y la sintaxis pueden variar dependiendo de la implementación, alguna de las cuales también permite etiquetas HTML.

¿Por qué no HTML?

La razón de este diseño es que el HTML, con muchas de sus etiquetas crípticas, no es fácil de leer por usuarios no técnicos. Hacer visibles las etiquetas de HTML provoca que el texto en sí sea difícil de leer y editar para la mayoría de usuarios. Por lo tanto se promueve el uso de edición en texto llano con unas convenciones fáciles para la estructura y el estilo.

A veces es beneficioso que los usuarios no puedan usar ciertas funcionalidades que el HTML permite, tales como JavaScript, CSS y XML. Se consigue consistencia en la visualización, así como seguridad extra para el usuario. En muchas inserciones de wiki, un hipervínculo es exactamente tal como se muestra, al contrario que en HTML.

Estándar

Durante años el estándar de facto fue la sintaxis del WikiWikiWeb original. Actualmente las instrucciones de formateo son diferentes dependiendo del motor del wiki. Los wikis simples permiten sólo formateo de texto básico, mientras que otros más complejos tienen soporte para tablas, imágenes, fórmulas, e incluso otros elementos más interactivos tales como encuestas y juegos. Debido a la dificultad de usar varias sintaxis se están haciendo esfuerzos para definir un estándar de marcado (ver esfuerzos de Meatball y Tikiwiki).

Vincular y crear páginas

Los wikis son un auténtico medio de hipertexto, con estructuras de navegación no lineal. Cada página contiene un gran número de vínculos a otras páginas. En grandes wikis existen las páginas de navegación jerárquica, normalmente como consecuencia del proceso de creación original, pero no es necesario usarlas. Los vínculos se usan con una sintaxis específica, el «patrón de vínculos».

CamelCase

Originalmente la mayoría de wikis usaban CamelCase como patrón de vínculos, poniendo frases sin espacios y con la primera letra de cada palabra en mayúscula (como por ejemplo la palabra «CamelCase»). Este método es muy fácil, pero hace que los links se escriban de una manera que se desvía de la escritura estándar. Los wikis basados en CamelCase se distinguen instantáneamente por los links con nombres como «TablaDeContenidos», «PreguntasFrecuentes».

CamelCase fue muy criticado, y se desarrollaron otras soluciones.

Free Links

Los «free links», usados por primera vez por Cliki, usan un formato tipo _(vínculo). Por ejemplo, _(Tabla de contenidos), _(Preguntas frecuentes). Otros motores de wiki usan distintos signos de puntuación.

Interwiki

Interwiki permite vínculos entre distintas comunidades wiki.

Las nuevas páginas se crean simplemente creando un vínculo apropiado. Si el vínculo no existe se acostumbra a remarcar como «vínculo roto». Siguiendo el vínculo se abre una página de edición, que permite al usuario introducir el texto para la nueva página wiki. Este mecanismo asegura que raramente se creen páginas huérfanas (las cuales no tienen ningún vínculo apuntando a ellas). Además se mantiene un nivel alto de conectividad.

Búsqueda

La mayoría de wikis permite al menos una búsqueda por títulos, a veces incluso una búsqueda por texto completo. La escalabilidad de la búsqueda depende totalmente del hecho de que el motor del wiki disponga de una base de datos o no: es necesario el acceso a una base de datos indexada para hacer búsquedas rápidas en wikis grandes. En Wikipedia el botón «Ir» permite a los lectores ir directamente a una página que concuerde con los criterios de búsqueda. El motor de MetaWiki se creó para habilitar búsquedas en múltiples wikis.

Control de cambios

Los wikis suelen ser diseñados con la filosofía de que sea fácil corregir los errores, en vez de que sea difícil cometerlos. Los wikis son muy abiertos, aún así proporcionan maneras de verificar la validez de los últimos cambios al contenido de las páginas. En casi todos los wikis hay una página específica, «Cambios Recientes», que enumera las ediciones más recientes de artículos, o una lista con los cambios hechos durante un periodo de tiempo. Algunos wikis pueden filtrar la lista para deshacer cambios hechos por vandalismo.

Desde el registro de cambios suele haber otras funciones: el «Historial de Revisión» muestra versiones anteriores de la página, y la característica «diff» destaca los cambios entre dos revisiones. Usando el Historial un editor puede ver y restaurar una versión anterior del artículo, y la característica «diff» se puede usar para decidir cuándo eso es necesario. Un usuario normal del wiki puede ver el «diff» de una edición listada en «Cambios Recientes» y, si es una edición inaceptable, consultar el historial y restaurar una versión anterior. Este proceso es más o menos complicado dependiendo del software que use el wiki.

En caso de que las ediciones inaceptables se pasen por alto en «Cambios Recientes», algunos motores de wiki proporcionan control de contenido adicional. Se pueden monitorizar para asegurar que una página o un conjunto de páginas mantienen la calidad. Una persona dispuesta a mantener esas páginas será avisada en caso de modificaciones, permitiéndole verificar rápidamente la validez de las nuevas ediciones.

Vandalismo

El vandalismo consiste en hacer ediciones (generalmente hechas por desconocidos) que borran contenido importante, introducen errores, agregan contenido inapropiado u ofensivo (por ejemplo, insultos), o, simplemente, incumplen flagrantemente las normas del wiki. También son frecuentes los intentos de spam, por ejemplo:

  • La introducción de enlaces en un wiki con el fin de subir en los buscadores de Internet (véase PageRank).
  • Los intentos de publicitarse o hacer proselitismo (de su ideología, religión u otros) a través del wiki.
  • Ingresar material que viola derechos de autor.

Algunas soluciones que se utilizan para luchar contra los vándalos son:

  • Revertir rápidamente sus cambios, para que así se desanimen.
  • Bloquearlos temporalmente por su nombre de usuario o dirección IP, de tal forma que no puedan seguir editando. Esta solución se ve dificultada por las IPs dinámicas y el uso de proxies abiertos, que, al ser bloqueados, pueden resultarlo también personas inocentes.
  • Si se produce siempre en una misma página, la protección de esa página.
  • No permitir editar páginas sin estar registrado.
  • En casos extremos (generalmente, ataques por medio de herramientas automáticas), bloquear la base de datos del wiki, no permitiendo así ningún tipo de edición.

Software

Existen varios programas, generalmente scripts de servidor en Perl o PHP, que implementan un wiki. Con frecuencia, suelen utilizar una base de datos, como MySQL.

Suelen distinguirse por:

  • Destino: para uso personal, para intranets, para la web…
  • Funcionalidad: pueden o no mantener historiales, tener opciones de seguridad, permitir subir archivos, tener editores WYSIWYG

Algunos de los más utilizados son:

  • UseModWiki: el más antiguo, escrito en Perl.
  • MediaWiki: utilizado en todos los proyectos de Wikimedia. Basado en PHP y MySQL.
  • PhpWiki: basado en UseMod. Escrito en PHP, puede utilizar distintas bases de datos.
  • TikiWiki: CMS completo, con un wiki muy desarrollado, usando PHP y MySQL.
  • DokuWiki: Un wiki completo escrito en PHP sin necesidad de bases de datos (usa sólo ficheros de texto)
  • WikkaWiki: basado en WakkaWiki, un wiki muy ligero. Usa PHP y MySQL
  • MoinMoin: Modular. Escrito en Python.
  • OpenWiking: Wiki programado en ASP.

Utilidades

– Usted puede realizar búsquedas en varios wikis a la vez, incluyendo esta web y la de Ward, utilizando un MetaWiki.

– El wiki es una práctica innovadora que ha expandido su uso, por ejemplo, a las empresas, las que utilizan este medio para que el conocimiento adquirido por los trabajadores pueda ser compartido y complementado por todos, se utiliza como una herramienta que favorece la innovación.

Véase también

Enlaces externos

Wikcionario

Wikis personales

Las personas que saben el manejo y administración de wikis pueden crear una propia en hostings destinados para tal fin. No tiene que ser del tipo informativo, que es lo ideal, si no de un tema específico propio.

Web 3.0

Web 3.0 es un neologismo que se utiliza para describir la evolución del uso y la interacción en la red a través de diferentes caminos. Ello incluye, la transformación de la red en una base de datos, un movimiento hacia hacer los contenidos accesibles por múltiples aplicaciones non-browser, el empuje de las tecnologías de inteligencia artificial, la web semántica, la Web Geoespacial, o la Web 3D. Frecuentemente es utilizado por el mercado para promocionar las mejoras respecto a la Web 2.0. El término Web 3.0 apareció por primera vez en 2006 en un artículo de Jeffrey Zeldman, crítico de la Web 2.0 y asociado a tecnologías como Ajax. Actualmente existe un debate considerable en torno a lo que significa Web 3.0, y cual es la definición acertada.

Las tecnologías de la Web 3.0, como programas inteligentes, que utilizan datos semánticos; se han implementado y usado a pequeña escala en compañías para conseguir una manipulación de datos más eficiente. En los últimos años, sin embargo, ha habido un mayor enfoque dirigido a trasladar estas tecnologías de inteligencia semántica al público general.

Bases de datos [editar]

El primer paso hacia la «Web 3.0» es el nacimiento de la «Data Web», ya que los formatos en que se publica la información en Internet son dispares, como XML, RDF y microformatos; el reciente crecimiento de la tecnología SPARQL, permite un lenguaje estandarizado y API para la búsqueda a través de bases de datos en la red. La «Data Web» permite un nuevo nivel de integración de datos y aplicación inter-operable, haciendo los datos tan accesibles y enlazables como las páginas web. La «Data Web» es el primer paso hacia la completa “Web Semántica”. En la fase “Data Web”, el objetivo es principalmente, hacer que los datos estructurados sean accesibles utilizando RDF. El escenario de la «Web Semántica» ampliará su alcance en tanto que los datos estructurados e incluso, lo que tradicionalmente se ha denominado contenido semi-estructurado (como páginas web, documentos, etc.), esté disponible en los formatos semánticos de RDF y OWL.[2]

Inteligencia artificial [editar]

Web 3.0 también ha sido utilizada para describir el camino evolutivo de la red que conduce a la inteligencia artificial. Algunos escépticos lo ven como una visión inalcanzable. Sin embargo, compañías como IBM y Google están implementando nuevas tecnologías que cosechan información sorprendente, como el hecho de hacer predicciones de canciones que serán un éxito, tomando como base información de las webs de música de la Universidad. Existe también un debate sobre si la fuerza conductora tras Web 3.0 serán los sistemas inteligentes, o si la inteligencia vendrá de una forma más orgánica, es decir, de sistemas de inteligencia humana, a través de servicios colaborativos como del.icio.us, Flickr y Digg, que extraen el sentido y el orden de la red existente y cómo la gente interactúa con ella.

Web semántica y SOA [editar]

En relación con la dirección de la inteligencia artificial, la Web 3.0 podría ser la realización y extensión del concepto de la “Web semántica”. Las investigaciones académicas están dirigidas a desarrollar programas que puedan razonar, basados en descripciones lógicas y agentes inteligentes. Dichas aplicaciones, pueden llevar a cabo razonamientos lógicos utilizando reglas que expresan relaciones lógicas entre conceptos y datos en la red.[3] Sramana Mitra difiere con la idea de que la «Web Semántica» será la esencia de la nueva generación de Internet y propone una fórmula para encapsular Web 3.[4]

Evolución al 3D [editar]

Otro posible camino para la Web 3.0 es la dirección hacia la visión 3D, liderada por el Web 3D Consortium. Esto implicaría la transformación de la Web en una serie de espacios 3D, llevando más lejos el concepto propuesto por Second Life.[5] Esto podría abrir nuevas formas de conectar y colaborar, utilizando espacios tridimensionales.[6

Folksonomia y Web semántica

Folksonomía es una indexación profesional, es decir, la clasificación colaborativa por medio de etiquetas simples en un espacio de nombres llano, sin jerarquías ni relaciones de parentesco predeterminadas. Se trata de una práctica que se produce en entornos de software social cuyos mejores exponentes son los sitios compartidos como del.icio.us (enlaces favoritos), Flickr (fotos), Tagzania (lugares), flof (lugares) o 43 Things (deseos).

Si se compara con otros sistemas de categorización, como el de Gmail, que también se vale de etiquetas, se distingue en que los usuarios comparten las categorizaciones, lo que no sucede en Gmail.

Las folksonomías surgen cuando varios usuarios colaboran en la descripción de un mismo material informativo. Por ejemplo, en del.icio.us muchas personas han guardado la wikipedia marcándola con diferentes etiquetas, pero coincidiendo la mayoría en reference, wiki y encyclopedia.

Jon Udell (2004) sugiere que «el abandono de las taxonomías en favor de las listas de palabras claves no es novedad, y que su diferencia fundamental es el intercambio de opiniones (el feedback) que se da en la folcsonomía y no en la taxonomía.»[1]

Esta diferencia es también la que acerca la folksonomía a la memética, en una relación similar a la que se produce entre las ontologías y la semántica [2]. Por otra parte, el concepto tiene relación con el de clasificación facetada utilizado en biblioteconomía.

Derivado de taxonomía, el término folksonomy ha sido atribuido a Thomas Vander Wal [3]. Taxonomía procede del griego «taxis» y «nomos»: Taxis significa clasificación y nomos (o nomia), ordenar, gestionar; por su parte, «folc» proviene del alemán «pueblo» (Volk). En consecuencia, de acuerdo con su formación etimológica, folcsonomía (folc+taxo+nomía) significa literalmente «clasificación gestionada por el pueblo (o democrática)».

La Web semántica (del inglés semantic web) se basa en la idea de añadir metadatos semánticos a la World Wide Web. Esas informaciones adicionales —que describen el contenido, el significado y la relación de los datos— se deben proporcionar de manera formal, para que así sea posible evaluarlas automáticamente por máquinas de procesamiento. El objetivo es mejorar Internet ampliando la interoperabilidad entre los sistemas informáticos y reducir la necesaria mediación de operadores humanos.

El precursor de la idea, Tim Berners-Lee, intentó desde el principio incluir informaciones semánticas en su creación, la World Wide Web, pero por diferentes causas no fue posible.[1] Por ese motivo introdujo el concepto de semántica con la intención de recuperar dicha omisión.

Relación con Internet

En la actualidad, la World Wide Web está basada principalmente en documentos escritos en HTML, un lenguaje de marcas que sirve principalmente para crear hipertexto en Internet. El lenguaje HTML es válido para adecuar el aspecto visual de un documento e incluir objetos multimedia en el texto (imágenes, esquemas de diálogo, etc.). Pero ofrece pocas posibilidades para categorizar los elementos que configuran el texto más allá de las típicas funciones estructurales, como sucede con otros lenguajes de maquetación (tipo LaTeX).

HTML permite mediante una herramienta de visualización (como un navegador o un agente de usuario) mostrar por ejemplo un catálogo de objetos en venta. El código HTML de este catálogo puede explicitar aspectos como «el título del documento» es Ferretería Acme; pero no hay forma de precisar dentro del código HTML si el producto M270660 es una «batería Acme», con un «precio de venta al público» de 200 €, o si es otro tipo de producto de consumo (es decir, es una batería eléctrica y no un instrumento musical, o un puchero). Lo único que HTML permite es alinear el precio en la misma fila que el nombre del producto. No hay forma de indicar «esto es un catálogo», «batería Acme» es una batería eléctrica, o «200 €» es el precio. Tampoco hay forma de relacionar ambos datos para describir un elemento específico en oposición a otros similares en el mismo catálogo.

La Web Semántica se ocuparía de resolver estas deficiencias. Para ello dispone de tecnologías de descripción de los contenidos, como RDF y OWL, además de XML, el lenguaje de marcas diseñado para describir los datos. Estas tecnologías se combinan para aportar descripciones explícitas de los recursos de la Web (ya sean estos catálogos, formularios, mapas u otro tipo de objeto documental). De esta forma el contenido queda desvelado, como los datos de una base de datos accesibles por Web, o las etiquetas inmersas en el documento (normalmente en XHTML, o directamente en XML, y las instrucciones de visualización definidas en una hoja de estilos aparte). Esas etiquetas permiten que los gestores de contenidos interpreten los documentos y realicen procesos inteligentes de captura y tratamiento de información.

Componentes de la Web Semántica [editar]

Los principales componentes de la Web Semántica son los metalenguajes y los estándares de representación XML, XML Schema, RDF, RDF Schema y OWL. La OWL Web Ontology Language Overview describe la función y relación de cada uno de estos componentes de la Web Semántica:

  • XML aporta la sintaxis superficial para los documentos estructurados, pero sin dotarles de ninguna restricción sobre el significado.
  • XML Schema es un lenguaje para definir la estructura de los documentos XML.
  • RDF es un modelo de datos para los recursos y las relaciones que se puedan establecer entre ellos. Aporta una semántica básica para este modelo de datos que puede representarse mediante XML.
  • RDF Schema es un vocabulario para describir las propiedades y las clases de los recursos RDF, con una semántica para establecer jerarquías de generalización entre dichas propiedades y clases
  • OWL añade más vocabulario para describir propiedades y clases: tales como relaciones entre clases (p.ej. disyunción), cardinalidad (por ejemplo «únicamente uno»), igualdad, tipologías de propiedades más complejas, caracterización de propiedades (por ejemplo simetría) o clases enumeradas.

La usabilidad y aprovechamiento de la Web y sus recursos interconectados puede aumentar con la web semántica gracias a:

  • Los documentos etiquetados con información semántica (compárese ésta con la etiqueta <meta> de HTML, usada para facilitar el trabajo de los robots). Se pretende que esta información sea interpretada por el ordenador con una capacidad comparable a la del lector humano. El etiquetado puede incluir metadatos descriptivos de otros aspectos documentales o protocolarios.
  • Vocabularios comunes de metadatos (Ontología (Informática)) y mapas entre vocabularios que permitan a quienes elaboran los documentos disponer de nociones claras sobre cómo deben etiquetarlos para que los agentes automáticos puedan usar la información contenida en los metadatos (p.ej. el metadato author tenga el significado de «autor de la página» y no el del «autor del objeto descrito en la página»).
  • Agentes automáticos que realicen tareas para los usuarios de estos metadatos de la Web Semántica
  • Servicios Web (a menudo con agentes propios) que provean de información a los agentes (por ejemplo un servicio de garantías a quien un agente pudiera consultar sobre si un comercio electrónico tiene un historial de mal servicio o de generar correo basura).

Los proveedores primarios de esta tecnología son las URIs que identifican los recursos junto con XML y los namespaces. Si a esto se añade un poco de lógica, mediante una RDF, u otras tecnologías como los mapas temáticos y algo de razonamiento basado en técnicas de inteligencia artificial, Internet podría estar cerca de alcanzar las aspiraciones iniciales de su inventor, Tim Berners-Lee.

Críticas y reacciones escépticas [editar]

El límite de la web semántica está dado no por las máquinas y/o sistemas biológicos que se pudieran usar, sino porque la lógica con que se intenta construir carece del uso del tiempo, ya que la lógica formal es puramente metonímica y carece de la metáfora, y eso es lo que marcan los teoremas de Gödel, la tautología final de toda construcción y /o lenguaje metonímico (matemático), que lleva a contradicciones.

Esta lógica consistente es opuesta a la lógica inconsistente que hace uso del tiempo, propia del insconciente humano, pero el uso del tiempo está construido en base a la falta, no en torno a lo positivo sino en base a negaciones y ausencias, y eso es imposible de reflejar en una máquina porque la percepción de la falta necesita de la conciencia de sí mismo que se adquiere con la ausencia.

El problema está en que pretendemos construir un sistema inteligente que sustituya nuestro pensamiento, al menos en las búsquedas de información, pero la particularidad de nuestro pensamiento humano es el uso del tiempo el que permite concluir, por eso no existe en la mente humana el problema de la parada o detención del cálculo, o lo que es lo mismo ausencia del momento de concluir.

Así que todos los esfuerzos encaminados a la web semántica están destinados al fracaso a priori si lo que se pretende es prolongar nuestro pensamiento humano en las máquinas, ellas carecen de discurso metafórico, pues sólo son una construcción matemática, que siempre será tautológica y metonímica, ya que además carece del uso del tiempo que es lo que lleva al corte, la conclusión o problema de la parada.

Como demostración vale la del contraejemplo, o sea que si suponemos que es posible construir la web semántica, como un lenguaje con capacidades similares al lenguaje humano, que tiene el uso del tiempo, entonces si ese es un teorema general, con un solo contraejemplo se viene abajo, y el contraejemplo está dado en el caso particular de la máquina de Turing y el problema de la parada.

Luego no se cumple la condición necesaria y suficiente del teorema, nos queda la condición necesaria que es que si un lenguaje tiene el uso del tiempo, carece de logica formal, usa la lógica inconsistente y por lo tanto no tiene el problema de la parada esa es condición necesaria para la web semántica, pero no suficiente y por ello ninguna máquina, sea máquina de Turing, computador o dispositivo aleatorio como un cuerpo negro en física, puede alcanzar el uso de un lenguaje que no sea el matemático con la paradoja de la parada, consecuencia del teorema de Gödel.

RSS, Feed y Atom

Que es RSS?

RSS es un sencillo formato de datos que es utilizado para redifundir contenidos a suscriptores de un sitio web. El formato permite distribuir contenido sin necesidad de un navegador, utilizando un software diseñado para leer estos contenidos RSS (agregador). A pesar de eso, es posible utilizar el mismo navegador para ver los contenidos RSS. Las últimas versiones de los principales navegadores permiten leer los RSS sin necesidad de software adicional.

Lecturas de Wikinoticias en inglés realizadas en el formato RSS

Lecturas de Wikinoticias en inglés realizadas en el formato RSS

Icono que señala la presencia de feeds RSS convertido en estándar de facto.

Icono que señala la presencia de feeds RSS convertido en estándar de facto.

RSS es parte de la familia de los formatos XML desarrollado específicamente para todo tipo de sitios que se actualicen con frecuencia y por medio del cual se puede compartir la información y usarla en otros sitios web o programas. A esto se le conoce como redifusión web o sindicación web (una traducción incorrecta, pero de uso muy común).

Este acrónimo se usa para referirse a los siguientes estándares:

  • Rich Site Summary (RSS 0.91)
  • RDF Site Summary (RSS 0.9 y 1.0)
  • Really Simple Syndication (RSS 2.0)
  • Además es usual que el término RSS sea usado indistintamente para referirse a cualquiera de los formatos RSS o Atom.

Gracias a los agregadores o lectores de feeds (programas o sitios que permiten leer fuentes web) se pueden obtener resúmenes de todos los sitios que se desee desde el escritorio del sistema operativo, programas de correo electrónico o por medio de aplicaciones web que funcionan como agregadores. No es necesario abrir el navegador y visitar decenas de webs.

Pero lo verdaderamente importante es que, a partir de este formato, se está desarrollando una cadena de valor nueva en el sector de los contenidos que está cambiando las formas de relación con la información tanto de los profesionales y empresas del sector como de los usuarios. Varias empresas están explorando nuevas formas de uso y distribución de la información.

La redifusión web no es sólo un fenómeno vinculado a los weblogs, aunque han ayudado mucho a su popularización. Siempre se han sindicado contenidos y se ha compartido todo tipo de información en formato XML, de esta forma podemos ofrecer contenidos propios para que sean mostrados en otras páginas web de forma integrada, lo que aumenta el valor de la página que muestra el contenido y también nos genera más valor, ya que normalmente la redifusión web siempre enlaza con los contenidos originales.

Que es Feed?

Icono que representa un feed

Icono que representa un feed

La palabra feed es un anglicismo cuyo significado original es alimentar, y que en jerga informática suele referirse a un tipo de dato empleado para suministrar información que es actualizada con frecuencia. Se emplea para denominar a los documentos con formato RSS o Atom, basados en XML, que permiten a los agregadores recoger información de páginas web sindicadas.

Los feeds suelen incluir titulares de noticias o artículos, a menudo acompañados de un resumen. Son muy utilizados en los weblogs o bitácoras, así como en prensa electrónica. Cada día hay más medios que utilizan este sistema de sindicación web. La gran difusión de este tipo de servicio web ha estimulado el interés en otros sectores que comienzan a ver en los feeds una forma efectiva de difundir y compartir información empresarial.

Este término podría traducirse como fuente, canal o alimentador dado que su función es el suministro de información a los usuarios, aunque en la actualidad no existe una traducción bien establecida y por ello suele usarse el término en inglés.

Tabla de contenidos

[ocultar]

//<![CDATA[
if (window.showTocToggle) { var tocShowText = «mostrar»; var tocHideText = «ocultar»; showTocToggle(); }
//]]>

Beneficios [editar]

  • Mantenerse al día con respecto a información deseada puede llegar a ser dificil. Mediante los Feeds se pueden obtener las últimas noticias al respecto en cuanto ésta sea actualizada, sin la necesidad de ir buscando de sitio en sitio.
  • Gran ahorro de tiempo para los visitantes ya que es posible acceder rápidamente a todos los contenidos nuevos publicados en varios sitios, sin tener que visitarlos uno por uno.
  • Uno puede buscar titulares de distintos sitios en un solo lugar.
  • A diferencia de las notificaciones vía email, mediante los Feeds no existen direcciones electrónicas involucradas; así se evita publicidad, spam, virus, etc.
  • Se puede cancelar las suscripción a un Feed sin necesidad de aviso.

Cómo usarlos [editar]

Se requiere un agregador —una herramienta parecida a un programa de correo electrónico. Parecido a recibir un correo electrónico cada ocasión en que alguna de las suscripciones haya sido actualizada, con la facilidad de que no involucra una dirección de correo electrónico. Actualmente existen varios agregadores; algunos de ellos pueden accederse vía online, otros deberás descargarlos e instalarlos para poder hacer uso de ellos, algunos son gratuitos y otros no.

Algunos de los servicios de páginas personales como Google, My Yahoo o My MSN tienen un agregador integrado – es así como información referente a noticias y clima son colocados como parte de tu contenido. Estas herramientas permiten personalizar la apariencia de tal forma que se pueden agregar Feeds para seguir sus actualizaciones.

Otros agregadores online están enfocados a proveer solamente este servicio. Uno de los más populares agregadores en este momento es Bloglines, el cual es gratuito y de fácil uso. Es muy similar al google reader, ya que tiene un listado de tus blogs favoritos que enumera los artículos no leídos.

Si haces uso del navegador Mozilla Firefox, este funciona a su vez como agregador y se puede acceder a sus funciones mediante la Barra de Herramientas. La versión 7 de Internet Explorer también tiene integrada esta característica, al igual que Opera (navegador), que trae un lector integrado muy práctico. Microsoft Outlook se unió a la tendencia y también añade esta función.

Finalmente, existen agregadores de escritorio, ejemplos de ellos son el Newsgator y el Feed Demon. Estos funcionan como programas de correo electrónico para los Feeds. En el caso de Mozilla Firefox se le pueden incorporar extensiones que funcionan de una forma similar.

Los archivos RSS o Atom,[1] al igual que las páginas web, disponen de un url o dirección de Internet del tipo: http://www.pagina-web.com/feeds/posts/default

Esta es la dirección que debemos incluir en nuestro agregador de feeds para que pueda acceder a sus contenidos, los interprete y nos lo muestre. Lo normal, es que una web o blog que publique un feed, indique donde podemos obtener esa url, mediante enlaces con el texto rss, Atom, o usando iconos estandarizados.

Definición técnica [editar]

Un feed es un documento (a menudo basado en XML) el cual contiene referencias electrónicas a versiones extendidas. La prensa electrónica y weblogs o bitácoras recurren comúnmente a ellos, aunque los feeds también son empleados para entregar información estructurada con respecto al clima. Los dos principales formatos son RSS y Atom. Recientemente el término RSS (Really Simple Syndication o Sindicación Realmente Simple) se ha usado indistintamente para referirse a cualquiera de los formatos RSS o Atom.

El término «publicar un feed» y sindicación o redifusión web son empleados para describir el modo en que un feed se agrega para recibir información. El contenido de un feed puede ser compartido y repartido facilmente por otros sitios web.

Los feeds han sido diseñados para ser entendidos facilmente por máquinas más que entendidos facilmente por humanos, lo cual llega a crear confusión la primera vez que una persona se enfrenta a ellos. Esto significa que un feed puede ser empleado para transferir información automáticamente desde un website a otro, sin ninguna intervención humana.

Que es ATOM?

Atom Icono Atom
Extensión de archivo: .atom, .xml
Tipo de MIME: application/atom+xml
Desarrollado por: Grupo atompub de IETF
Tipo de formato: Sindicación web
Extendido de: XML
Estándar(es): RFC 4287, RFC 5023

Atom es un formato XML similar a RSS. Nació para resolver la confusión creada por la existencia de estándares similares para sindicación web (RSS y RDF) y crear una API y un formato de sindicación web más flexibles. Sin embargo, los detractores de este formato opinan que más que resolver el problema de múltiples estándares, ha creado uno nuevo que convive con los anteriores a los que pretendía reemplazar.

Está aún en desarrollo y ha recibido diferentes nombres, entre otros Echo, llamándose finalmente Atom. La última versión del estándar es Atom 1.0, publicada en julio de 2005.

Recientemente el término RSS (Sindicación Realmente Simple) se ha usado indistintamente para referirse a cualquiera de los formatos Atom o RSS.

Que es Web 2.0?

Web 2.0

De Wikipedia, la enciclopedia libre

El término Web 2.0 fue acuñado por Tim O’Reilly en 2004 para referirse a una segunda generación de Web basada en comunidades de usuarios y una gama especial de servicios, como las redes sociales, los blogs, los wikis o las folcsonomías, que fomentan la colaboración y el intercambio ágil de información entre los usuarios.

Tabla de contenidos

[ocultar]

Introducción [editar]

El concepto original de la web (en este contexto, llamada Web 1.0) era páginas estáticas HTML que no eran actualizadas frecuentemente. El éxito de las punto-com dependía de webs más dinámicas (a veces llamadas Web 1.5) donde los CMS servían páginas HTML dinámicas creadas al vuelo desde una actualizada base de datos. En ambos sentidos, el conseguir hits (visitas) y la estética visual eran considerados como unos factores muy importantes.

Los propulsores de la aproximación a la Web 2.0 creen que el uso de la web está orientado a la interacción y redes sociales, que pueden servir contenido que explota los efectos de las redes creando o no webs interactivas y visuales. Es decir, los sitios Web 2.0 actúan más como puntos de encuentro, o webs dependientes de usuarios, que como webs tradicionales.

Origen del término [editar]

El término fue acuñado por Dale Dougherty de O’Reilly Media en una lluvia de ideas con Craig Cline de MediaLive para desarrollar ideas para una conferencia. Dougherty sugirió que la web estaba en un renacimiento, con reglas que cambiaban y modelos de negocio que evolucionaban. Dougherty puso ejemplos — «DoubleClick era la Web 1.0; Google AdSense es la Web 2.0. Ofoto es Web 1.0; Flickr es Web 2.0.» — en vez de definiciones, y reclutó a John Battelle para dar una perspectiva empresarial, y O’Reilly Media, Battelle, y MediaLive lanzó su primera conferencia sobre la Web 2.0 en Octubre del 2004. La segunda conferencia se celebró en octubre de 2005.

En 2005, Tim O'Reilly definió el concepto de Web 2.0. El mapa meme mostrado (elaborado por Markus Angermeier) resume el meme de Web 2.0, con algunos ejemplos de servicios.

En 2005, Tim O’Reilly definió el concepto de Web 2.0. El mapa meme mostrado (elaborado por Markus Angermeier) resume el meme de Web 2.0, con algunos ejemplos de servicios.

En su conferencia, O’Reilly y Battelle resumieron los principios clave que creen que caracterizan a las aplicaciones web 2.0: la web como plataforma; datos como el «Intel Inside»; efectos de red conducidos por una «arquitectura de participación»; innovación y desarrolladores independientes; pequeños modelos de negocio capaces de sindicar servicios y contenidos; el perpetuo beta; software por encima de un solo aparato.

En general, cuando mencionamos el término Web 2.0 nos referimos a una serie de aplicaciones y páginas de Internet que utilizan la inteligencia colectiva para proporcionar servicios interactivos en red dando al usuario el control de sus datos.

Así, podemos entender como 2.0 «todas aquellas utilidades y servicios de Internet que se sustentan en una base de datos, la cual puede ser modificada por los usuarios del servicio, ya sea en su contenido (añadiendo, cambiando o borrando información o asociando datos a la información existente), bien en la forma de presentarlos, o en contenido y forma simultáneamente.» (Ribes, 2007)

Mapa mental de la Web 2.0

Mapa mental de la Web 2.0

Tecnología [editar]

La infraestructura de la Web 2.0 es compleja y va evolucionando, pero incluye el software de servidor, sindicación de contenidos, protocolos de mensajes, navegadores basados en estándares, y varias aplicaciones para clientes.

Una web se puede decir que está construida usando tecnología de la Web 2.0 si se caracteriza por las siguientes técnicas:

Web 2.0 buzz words

Web 2.0 buzz words

  • General:
    • El sitio no debe actuar como un «jardín cerrado»: la información debe poderse introducir y extraer fácilmente
    • Los usuarios deberían controlar su propia información
    • Basada exclusivamente en la Web: los sitios Web 2.0 con más éxito pueden ser utilizados enteramente desde un navegador

Redifusión de contenido [editar]

La primera y más importante evolución de la Web 2.0 se refiere a la redifusión del contenido de una Web, usando protocolos estandarizados que permitan a los usuarios finales usar el contenido de la web en otro contexto, ya sea en otra web, en un conector de navegador o en una aplicación de escritorio. Entre los protocolos que permiten sindicar se encuentran RSS, RDF (conocido también como RSS 1.1), y Atom, todos ellos variedades de XML. Los protocolos específicos como FOAF y XFN (ambos para redes sociales) amplían la funcionalidad de los sitios y permiten a los usuarios interactuar sin contar con sitios Web centralizados. Véase Microformats para más información sobre formatos de datos especializados.

Debido al reciente desarrollo de estos, muchos son de facto en lugar de verdaderos estándares.

Servicios Web [editar]

Los protocolos de mensajes bidireccionales son uno de los elementos clave de la infraestuctura de la Web 2.0. Los dos tipos más importantes son los métodos RESTful y SOAP. REST indican un tipo de llamada a un servicio web donde el cliente transfiere el estado de todas las transacciones. SOAP y otros métodos similares dependen del servidor para retener la información de estado. En ambos casos, el servicio es llamado desde un API. A veces este API está personalizado en función de las necesidades específicas del sitio web, pero los APIs de los servicios web estándares (como por ejemplo escribir en un blog) están también muy extendidos. Generalmente el lenguaje común de estos servicios web es el XML, si bien puede haber excepciones.

Recientemente, una forma híbrida conocida como Ajax ha evolucionado para mejorar la experiencia del usuario en las aplicaciones web basadas en el navegador. Esto puede ser usado en webs propietarias (como en Google Maps) o en formas abiertas utilizando un API de servicios web, una semilla de sindicación.

Véase también: WSDL

Software de servidor [editar]

La funcionalidad de Web 2.0 se basa en la arquitectura existente de servidor web pero con un énfasis mayor en el software dorsal. La sindicación sólo se diferencia nominalmente de los métodos de publicación de la gestión dinámica de contenido, pero los servicios Web requieren normalmente un soporte de bases de datos y flujo de trabajo mucho más robusto y llegan a parecerse mucho a la funcionalidad de intranet tradicional de un servidor de aplicaciones. El enfoque empleado hasta ahora por los fabricantes suele ser bien un enfoque de servidor universal, el cual agrupa la mayor parte de la funcionalidad necesaria en una única plataforma de servidor, o bien un enfoque plugin de servidor Web con herramientas de publicación tradicionales mejoradas con interfaces API y otras herramientas. Independientemente del enfoque elegido, no se espera que el camino evolutivo hacia la Web 2.0 se vea alterado de forma importante por estas opciones.

Relaciones con otros conceptos [editar]

La web 1.0 principalmente trata lo que es el estado estatico, es decir los datos que se encuentran en esta no pueden cambiar se encuentran fijos, no varían, no se actualizan.

Comparación con la «Web 1.0» [editar]

De acuerdo con Tim O’Reilly [1], la Web 2.0 puede ser comparada con la Web 1.0 de esta manera:

Web 1.0 Web 2.0
DoubleClick Google AdSense
Ofoto Flickr
Akamai BitTorrent
mp3.com Napster
Enciclopedia Británica Wikipedia
webs personales blogging
evite upcoming.org y EVDB
especulación de nombres de dominios optimización de los motores de búsqueda
páginas vistas coste por clic
screen scraping servicios web
publicar participación
sistema de gestión de contenidos wiki
directorios (taxonomía) etiquetas (folcsonomía)
stickiness sindicación

Comparación con la Web Semántica [editar]

En ocasiones se ha utilizado el término Web 2.0 como análogo a Web semántica[cita requerida]. Sin embargo ambos conceptos, aun siendo afines, no son iguales, sino más bien complementarios. La combinación de sistemas de redes sociales, como FOAF y XFN, con el desarrollo de etiquetas (o tags), que en su uso social derivan en folcsonomías, así como el plasmado de todas estas tendencias a través de blogs y wikis, confieren a la Web 2.0 un aire semántico. Sin embargo, en el sentido más estricto de Web semántica se requiere el uso de ontologías y no de folcsonomías. De momento, el uso de ontologías como mecanismo de estructurar la información en los programas de blogs es anecdótico [2] y sólo se aprecia de manera incipiente en algunos wikis.

Bien podría hablarse de la Web 3.0 para la Web semántica[cita requerida]. Pero una diferencia fundamental entre ambas versiones de web (2.0 y semántica) es el tipo de participante. La 2.0 tiene como principal protagonista al usuario humano que escribe artículos en su blog o colabora en un wiki. El requisito es que además de publicar en HTML emita parte de sus aportaciones en XML/RDF (RSS, ATOM, etc.). La web semántica, sin embargo, está orientada hacia el protagonismo de procesadores mecánicos que entiendan de lógica descriptiva en OWL y concebida para que las máquinas hagan el trabajo de las personas a la hora de procesar la avalancha de información publicada en la Web .