T2. SOPORTES Y MEDIOS

t2-mapa.png
MAPA CONCEPTUAL T2. Soportes y medios


1. Nuevos soportes, nuevos medios

1.1. El escenario de medios actual

Como han definido autores como Cebrián Herreros (2001, 2003) Franquet (2002) o Peñafiel y López Vidales (2002) vivimos inmersos en una nueva “sociedad multimedia” que pone el acento más allá de la información, y se fija en una multiplicación “concentrada” de medios. En este nuevo modelo social se borran ciertas fronteras, en especial las espaciales. Las innovaciones en las redes de comunicaciones, por ejemplo los satélites o Internet, fomentan la ubicuidad de los medios. Sin embargo, a pesar de esta aparente y absoluta extensión, no debemos olvidar que siguen existiendo barreras muy fuertes, como por ejemplo las sociales, las idiomáticas o las culturales.(1)
Ante el incremento de la competencia, los empresarios responden fundamentalmente con grandes uniones. De la anterior multiplicidad de empresas audiovisuales y de la información hemos pasado a un panorama en el cual una serie de nuevos y grandes complejos corporativos dominan el mundo de la comunicación. Esto no supone una menor cantidad de ofertas, pues ante la competitividad extrema, la fórmula preferente de negocio se centra en diversificar los contenidos, multiplicar los canales y atender a una "larga cola" cada vez más amplia.
La sociedad multimedia cuenta con un factor primordial, sin el cual es difícil de entender: la convergencia. Todos los medios y servicios tienden a converger para [[#|asegurar]] su supervivencia. Todos los medios de comunicación de masas se han tenido que adaptar a las nuevas tecnologías para crear nuevos medios de llegar a los usuarios (nuevos medios de difusión) Estos cambios se han de establecer a todos los niveles: empresarial, económico, de producción, de comercialización, de programación y de organización. Y en su mayoría, han sido posibles gracias al fenómeno de la digitalización.
Así, Cebrián Herreros (2005) señala:
La información multimedia es la integración de sistemas expresivos escritos, sonoros, visuales, gráficos y audiovisuales en su sentido pleno; el multimedia acoge el sistema audiovisual y añade otros elementos específicos como la interactividad, navegación e hipertextualidad e hipermedialidad. Es también la integración de los diversos sistemas y soportes en un soporte o red única con capacidad para congregar todos los medios tradicionales en sentido pleno, es decir, el multimedia incorpora e interrelaciona la prensa, la fotografía, el cine, la radio, la televisión y el vídeo, así como todos los derivados de éstos. Es, además, integración de sistemas expresivos y de medios para generar otro sistema expresivo propio y un nuevo medio que va más allá de la suma o yuxtaposición de los anteriores. El multimedia acoge, incluso, una dimensión mayor al referirse también a la integración de varias empresas productoras o difusoras en una unidad superior que es la que establece los objetivos, la organización y convergencia de toso los medios para diseñar estrategias tendentes a un mayor rendimiento por la sinergias que establecen entre unos medios y otros. (p. 17 y sucs.)
Pero este fenómeno va mucho más allá y año tras año, mes tras mes, vamos asistiendo a una dinámica actualización y reconfiguración de su incidencia en el campo de la comunicación y, de forma señalada, en el del Ciberperiodismo. Así, Jeff Jarvis, profesor de periodismo y bloguero de referencia (BuzzMachine) resume la nueva lógica organizativa y comercial de la producción y distribución ciberperiodística del modo siguiente: “Haz lo que mejor sabes hacer y enlaza lo demás” (Elola, 2010) , y establece la necesidad de que los grandes grupos de comunicación se reorganicen adecuadamente para dar satisfacción a las nuevas necesidades de información que solicitan los usuarios en la Red.

En España es visible el hecho de que no se está llevando a cabo aún esa innovación de contenidos de los medios tradicionales a un ritmo tan avanzado como cabría esperarse (sobre todo si no se quiere perder a los espectadores – principalmente a los nativos digitales - que están emigrando en masa hacia los contenidos digitales de Internet)
A este respecto, la línea de investigación desarrollada en el II Congreso Internacional de Sociedad Digital (organizado por el Grupo SOCMEDIA junto a la Universidad Complutense de Madrid y la Universidad Rey Juan Carlos), y centrada en la Sociedad Digital que Entretiene, afirmaba que de momento no se está produciendo ese cambio debido en parte a que todavía nos encontramos en un proceso de analfabetismo digital en el que aún se desconocen las verdaderas posibilidades de lo digital, y sobre todo donde aún tiende a separarse el contenido digital del analógico. Según esta línea, si quieren subsistir los medios convencionales, no podrán permanecer mucho tiempo con el modo actual de programación, y deberán tender a borrar esa barrera que actualmente sigue separando lo digital de lo no digital.

Junto al fenómeno de fusiones de los grandes medios como forma de subsistencia, en los últimos años se está produciendo el nacimiento de multitud de medios de comunicación exclusivamente digitales con unas dimensiones y pretensiones mucho más modestas. Una de las causas puede estar en el incremento de las cifras de desempleo entre los periodistas, por lo que deciden optar por el autoempleo, en muchos casos a través de cooperativas. Un claro ejemplo ha sido el cierre del diario Público, cuyos extrabajadores han decidido montar al menos cuatro nuevos medios, la mayoría de ellos sin soporte en papel. Esto es posible gracias a la reducción de costes que supone la creación de un medio de comunicación digital en comparación con uno de los denominados tradicionales (periódico, radio o televisión). Aunque esta ventaja no sirve de nada si, como afirma el profesor de la universidad Carlos III Borja Ventura, al final se ofrecen los mismos contenidos que el resto de medios. Según este periodista, hay que olvidarse de "contar lo que todos y salir a la calle a contar cosas que sólo tú puedas contar".

En otros casos, el nacimiento de estos nuevos medios de comunicación excluvisamente digitales nacen con otras pretensiones y persiguen otros fines. Lo explica muy bien el catedrático de la Universidad Carlos III de Madrid, Carlos Elías, en un prólogo titulado "Los diletantes como meros periodistas", que se puede encontrar en el volumen de Cuadernos Artesanos de Latina con el título de "Viejo periodismo, nuevos periodistas".

Carlos Elías, argumenta lo siguiente "En España, por ejemplo, muchos prejubilados de TVE u otros medios tienen su blog informativo e, incluso, han fundado periódicos digitales que apenas dan dinero, pero les otorgan poder y los mantienen visibles. Blogs como los de Isabel Paz, prejubilada de TVE, o webs como diariocritico.com de Fernando Jáuregui, periodistadigital.com de Alfonso Rojo, o elplural.com de Enric Sopena, se mantienen porque sus autores pueden trabajar gratis porque no viven de ello, sino de su pensión o de sus indemnizaciones cuando dejaron los medios tradicionales, o de ambas. Reunen una mezcla imbatible: un gran oficio, producto de su gran experiencia en el periodismo tradicional, y la vida resuelta desde el punto de vista económico. Imposible competir. En el otro extremo, están esos "niños bien", que por ser ricos no tienen porque ser tontos. Es más, algunos son muy brillantes, que ven en el trabajo gratuito como periodistas una forma de realización personal o/y de reconocimiento social. Sólo así se entiende que aguanten años trabajando de forma gratuita en los medios".

1.2. Ciberperiodismo y productos Multimedia

Periodismo digital, también llamado ciberperiodismo, es un término nuevo para describir la tendencia del periodismo que tiene como espacio principal de desarrollo al Internet.
Según palabras de Ramón Salaverría: "es la especialidad del periodismo que emplea el ciberespacio para investigar, producir y, sobre todo, difundir contenidos periodísticos".

Esta nueva área del periodismo tiene que ver directamente con el desarrollo de las nuevas tecnologías. Los medios de comunicación social como la radio, la televisión, la prensa, el cine y otros, con sus diferentes géneros y modos de expresión, han ido incursionando en el nuevo medio de comunicación social del siglo XXI. En la actualidad es posible sintonizar emisoras, ver canales de televisión, películas, música, leer periódicos y demás en el Internet. En consecuencia, se habla de radio digital, televisión digital y prensa digital para referirse a los medios que se transmiten utilizando la tecnología digital, más versátil y con más prestaciones que la antigua analógica o que se emiten por el llamado ciberespacio.

Muestra de esta lucha, por parte de los medios de comunicación, por incorporarse al carro de las nuevas tecnologías navegables son las plataformas creadas en internet, como Orbyt, que pretende reinventar la manera de entender la información. Esta herramienta, perteneciente a la empresa Unidad Editorial, ofrece la oportunidad de poder leer el periódico El Mundo, así como sus suplementos y revistas semanales, ofreciendo además al consumidor la posibilidad de consultar su hemeroteca, opinar e interactuar con la redacción del medio y participar en su día a día. Se trata de aplicaciones de pago que intentan incorporarse a la red con el objeto de paliar las perdidas y el decrecimiento que están experimentando los clásicos medios impresos. Pero esta empresa no es la única que se está intentando reciclar, sino que otros se suman ya a esta alternativa, como el Grupo Vocento, empresa que produce el periódico ABC.

Profundizando más en estas nuevas plataformas, Orbyt fue, en marzo de 2010, el primer proyecto formal de la prensa española basado en contenidos de pago a través de Internet.
Supuso una apuesta por dirigir un medio de comunicación tradicional impreso a un medio digital. Con este formato novedoso se pretendió la introducción en las nuevas tecnologías y el aprovechamiento de la capacidad de Internet para innovar y expandirse y así llegar a otros países en los que es más complicado llegar a través de la distribución física.
orbyt.jpg

Para muestra de ello, estas declaraciones de Pedro J. Ramírez, director de El Mundo, en la London School of Economics (LSE) hace unos días:
"La gente que viva en Australia será capaz de suscribirse a El Mundo, Marca y Expansión por cinco euros al mes". "La gente que viva en Bahrein pagará siete euros al mes. Para ustedes que viven en Londres, el precio de los tres periódicos será de sólo 10 euros al mes. Estarán de acuerdo conmigo en que es una oferta interesante”

El servicio cuesta 14’90 Euros al mes o 0’60 Euros diarios, con el objetivo de aportar al usuario contenidos diferenciados y con valores añadidos.
Además de El Mundo, se pueden encontrar en soporte digital Marca, Expansión o La Razón.
Twitter de El Mundo en Orbyt: https://twitter.com/elmundo_orbyt





Por otro lado, en julio de 2011, se hacía realidad la llegada de Kiosco y más, demostrando que la innovación no tiene por qué ir separada de la sencillez. Y es que esta plataforma muestra un manejo fácil permitiendo su uso a todo tipo de usuarios sin depender de sus conocimientos informáticos.


kioskoymas001.jpg

A través de Kiosco y más, el periodismo se adapta a las nuevas tendencias sin traicionar los valores propios de este mundo.
Las posibilidades de esta plataforma son enormes, ya que permite el acceso a una gran y variada oferta de periodismo de alta calidad, y también permite el uso de herramientas características del entorno digital.
Posee además una navegación sencilla en la que se permite ir directamente a una sección o una información. Las noticias se pueden compartir en redes sociales, como Twitter (https://twitter.com/Kioskoymas) y mandar por correo electrónico, con la posibilidad también de ampliar el tamaño de las letras para facilitar la lectura.
Con diversos precios según la publicación, en esta plataforma encontramos, además de ABC, otras ofertas editoriales como El País, As, Mundo Deportivo, o El Correo.



Tal como señalan Meso López y Alonso -que presentan una interesante propuesta tipológica de cibermedios-, son muchos los autores que han realizado sus aportaciones al debate terminológico del concepto de “medio”, que resulta ampliamente ambiguo debido a su proverbial polisemia, y que es, si cabe, más intenso en una disciplina tan reciente como el ciberperiodismo (De Pablos, 2001; Díaz Noci y Salaverría, 2003). En los últimos años han surgido diferentes denominaciones para este fenómeno, desde el primigenio “periodismo electrónico” (Armañanzas, Díaz Noci y Meso, 1996), hasta el “periodismo digital” –más habituales sus empleos en español-, “periodismo en línea”, “e-periodismo”, etc.
El término ciberperiodismo, en el mundo anglosajón, como señala Díaz Noci, comienza a consensuarse entre los usuarios, como una derivación del vocablo ciberespacio. En el mundo anglosajón, asimismo, es muy habitual el empleo del término “online journalism” (periodismo en línea). Otros autores, apuestan por el término “periodismo cibernético” (Gómez y Méndez, Leal Gil, 2001; Álvarez Marcos, 1999). Particularmente, defendemos el empleo del término “ciberperiodismo” para el nuevo periodismo en línea y del término “cibermedios” para los medios electrónicos que difunden sus contenidos a través de internet (López, Gago y Pereira, 2003).
Finalmente, éste se incorpora a la clasificación de medios de comunicación como el cuarto componente de ésta tras la prensa escrita la radio y la televisión, ya que, con el paso del tiempo, han logrado constituirse en un medio propio, con estructuras redaccionales, narrativas y discursivas exclusivas.
Los cibermedios se pueden clasificar en función del objetivo o finalidad que persiguen (Alonso y Martínez, 2003); del público al que van dirigido; por la aplicación de los criterios profesionales, estructurales, redaccionales y éticos de la actividad periodística; por el aprovechamiento de las posibilidades que ofrece el ciberespacio (López, Gago y Pereira, 2002); e, incluso, por la constante renovación o actualización de contenidos.
Paralelamente, se están desarrollando nuevas formas de interacción como el de Televisión Española, a través del Canal 24 Horas. Coincidiendo con las elecciones autonómicas y gallegas celebradas el 21 de octubre de 2012, ha puesto en marcha un nuevo sistema multipantalla para que el espectador pueda elegir qué contenido quiere ver, al margen de la emisión normal del canal. El sistema se puede usar a través de tablets, móviles, ordenador o la consola Xbox. Es el propio canal el que avisa de la disponibilidad de las señales para que el usuario pueda seleccionarla si así lo desea. Se trata de una revolución cara el futuro, puesto que, por este sistema, nos convertimos en los realizadores de nuestra propia señal, eligiendo aquello que nos interesa más. El sistema se denomina "+24" y, aunque se emite en pruebas en la noche electoral de Galicia y País Vasco, abre un campo interesante de desarrollo de la televisión.

http://www.rtve.es/rtve/20121019/canal-24-horas-rtvees-estrenan-24-para-seguir-directo-elecciones-galicia-pais-vasco/571046.shtml


1.3. Nuevos modelos de participación

Anteriormente el público se limitaba a recibir la noticia que le llegaba, acatando lo que el medio de información le transmitía, pero ahora, con la era digital eso ha cambiado. Ahora el público puede contestar a esa información que le llega.
La información de los medios siempre va a estar sujeta a dos contenidos de principales en los que se divide:
  • Eje geográfico: noticias locales, nacionales, internacionales…
  • Eje temático: cultura, deporte, cine…
El eje temático se ha visto favorecido por Internet ya que le otorga muchas ventajas a la hora de dar forma a informaciones especializadas, una información que llega a todas las partes, sin barreras geográficas.
Internet pone en contacto a miles de personas a través de la red con un punto en común, bien sean aficiones, interés por una misma noticia, etc.
Internet es además el soporte más barato para la información, pone de manifiesto una vocación internacional en la información donde la única barrera es el idioma.

La glocalización, no es más que la vocación global con la capacidad de llegar a todo el mundo, de mantener nuestras raíces y costumbres siempre vivas y compartirlas con otras personas. La glocalización rescata lo mejor de la globalización. En la glocalización el espíritu que nos toca vivir se refleja en los medios de comunicación locales, pero existe un problema, la masificación de la información.
Hay más medios e información en la red que personas que aborden esa información.

La red nos da la posibilidad de mandar un mensaje o una información y que la gente lo pueda captar, pero esto se ve truncado por la masificación que hay en la red de información local o específica de algún tema. Que Internet pueda transmitir publicaciones temáticas especializadas es algo muy ventajoso aunque esto no es nada beneficial para la información local. Hoy en día existen más escritores que lectores y eso no favorece a la información ni local ni internacional ya que puede desvirtuar la información verídica.

Marcos Palacios y Javier Díaz Noci, explican algunas de las características del ciberperiodismo en su obra "Ciberperiodismo: Métodos de Investigación". Estos autores se centran en los siguientes aspectos:
  • Presentan una tipología de cibermedios, centrada en elementos de los mismos, según sus acciones o desarrollo, el modelo comunicativo, los elementos integrantes o en la finalidad.
  • Proponen una serie de géneros que nutren el ciberperiodismo, según el contenido de los medios.
  • Desgrana la arquitectura de estos medios y las bases de datos.
  • La investigación en diseño periodístico.
  • La narratividad de estos medios.
  • Investigación sobre el periodismo participativo.
  • Rutinas productivas.
  • Sobre la convergencia periodística.
  • Enseñanza del ciberperiodismo.

2. La evolución de la web

Para abordar este epígrafe, es importante que recuperes algunos de los conceptos tratados en la asignatura de “Nuevas Tecnologías y Sociedad de la Información”, especialmente por lo que se refiere a la evolución completa de los medios electrónicos y su impacto en la construcción del ciberperiodismo. Nosotros nos centraremos aquí, por su oportunidad en esta materia, exclusivamente en los últimos pasos de este recorrido.

2.1. De la lectura a la escritura socializada

Nos encontramos, en palabras de Juan Navarro (IAB Spain), en el salón “post-2000”; un ámbito en el que las pantallas nos rodean, están en todos lados, y en los que el consumo individualizado de información está estableciendo un nuevo paradigma que se caracterizará por:
  • Internet más masivo y rápido, pero más segmentado y personalizado.
  • La inversión y la presencia de medios aumentará (amplios crecimientos porcentuales)
  • Mayor uso de formatos más interactivos (Rich Internet Application)
  • Mayores contenidos audiovisuales (VoD, iTV, DVR, IPTV, Mobile Video…) y el acceso a través de dispositivos de movilidad.
  • Web 2.0, 3.0… más personal y social (consumer-generated content, microblogs,…).

Y es que, cuando aún estamos socialmente “acomodándonos” en la Web, en este lado del horizonte ya comienzan a tomar cuerpo nuevas dimensiones de este fenómeno global que parecen desbordar, y cada día que navegamos por la red nos lo confirman, los usos y características esenciales que lo determinan. Para ser justos, deberíamos decir, que trazan una nueva dimensión de algunas de sus posibilidades más excitantes.
Fumero, Roca y Encinar (2007) señalan, por ejemplo, cuáles son algunas de las claves que significan esta evolución y que están contribuyendo a dirigir los usos de los internautas hacia nuevas costumbres y hábitos en una segunda versión de la Web:
  • Por una parte, su “elasticidad sociotécnica”, es decir, la agilidad, facilidad, experiencia de uso simplificada, o inmediatez que asociamos al nuevo modelo de la Red.
  • De otra, el carácter social que se manifiesta en el fenómeno creciente de la constitución de redes sociales, de la aparición y consolidación de consorcios de sujetos con intereses y expectativas comunes.
  • Por último, la colectivización de la creatividad y de la gestión compartida del conocimiento; la nueva web abre ventanas a una frenética actividad de creación participada, en cierta medida se convierte en una academia digital que erige textos por yuxtaposición, a veces por pura sedimentación (Nielsen, en Fernández: 2007), es cierto, pero que alumbra, sin ningún género de duda, una manera distinta de concebir tanto los procesos de construcción como de gestión de la información (vg. conceptos como folksonomías, etiquetado social, etc.

t2-evolucion-web.png




En el link, podemos observar el mapa que elaboran los autores de la obra de la Fundación Orange.

Por último, la colectivización de la creatividad y de la gestión compartida del conocimiento; la nueva web abre ventanas a una frenética actividad de creación participada, en cierta medida se convierte en una academia digital que erige textos por yuxtaposición, a veces por pura sedimentación .
Deberás hacerla sencilla. Popularización de herramientas de publicación y edición
  • Deberás hacerla potente. Evolución y desarrollo de nuevas tecnologías, lenguajes y servicios web
  • Deberás hacerla rápida. Mejora de las redes de comunicación y acceso a la Red
  • No renunciarás a tus orígenes. Desarrollo Underground, P2P, Open Source, CopyLeft, Activismo ético, Nativos digitales…
  • Consolidarás la Sociedad de la Información. Y te proyectarás hacia una Sociedad del Conocimiento
La siguiente evolución parece que nos aproximará hacia una web realmente semántica en el que el carácter descriptivo de los contenidos que la componen permitan que las propias máquinas tengan un nivel de comprensión de la Web suficiente como para hacerse cargo de una parte, la más costosa, rutinaria, o físicamente inabarcable, del trabajo que actualmente realizan manualmente los usuarios que navegan e interactúan con la Web (Castells, 2005: 195) A saber, una web diseñada por y para las personas, con la asistencia de procesamiento y gestión del conocimiento de una “red inteligente”.
No obstante, cabe meditar los pros y los contras de las nuevas funcionalidades que posibilita el enorme potencial de la web social. Es el caso, por ejemplo, de las funcionalidades creadas para personalizar los gestores de información (ver punto 2.2.). Recientemente, el buscador Google ha incorporado los resultados personalizados: ante la misma búsqueda realizada por dos usuarios diferentes, Google ofrece resultados adaptados a cada uno de ellos. Según las páginas de ayuda de Google, se basa para ello en dos parámetros: si el usuario está conectado a su cuenta personal de Google, el buscador utilizará como referencia el historia web de la misma; si el usuario no está conectado a su cuenta o no dispone de ninguna, Google se guiará por las cookies que todo navegador guarda durante un tiempo determinado cuando se utiliza un buscador web. La personalización se ofrece por defecto. Si el usuario quiere desactivarla, en el primer caso deberá borrar su historial web y, en el segundo, activar una opción dentro del buscador para inhabilitar la personalización.
Esta funcionalidad implica una reducción del espectro de búsqueda del usuario. Aparte de las implicaciones que esto tiene para el propio usuario, esta funcionalidad podría reducir la importancia de los esfuerzos que realizan las webs para la optimización de su posicionamiento en buscadores (Search Engine Optimization o SEO).


2.1.1.Del papel a la pantalla

La aparición del hipertexto y otros medios de producción, edición y publicación de documentos en forma electrónica y digital ha venido acompañada de una serie de cambios tecnológicos tanto en los soportes y dispositivos de escritura como en los de lectura. Para Roger Chartier, la revolución del texto electrónico es, al mismo tiempo, una revolución de la técnica de producción y de reproducción de textos, una revolución del soporte de lo escrito y una revolución de las prácticas de lectura.

La escritura y la lectura se han producido y transmitido siempre de forma secuencial porque así lo exigían las distintas tecnologías que les servían de soporte. Con la aparición de la tecnología hipertextual , la pantalla se ha convertido en el principal soporte de visualización ya que permite la multisecuencialidad característica del hipertexto, haciendo de la pantalla un soporte que entra en franca competencia con el papel que deja de ser el soporte privilegiado- y, por extensión, con el formato que se ha considerado hegemonico como vía y soporte del conocimiento: el libro. Esta circunstancia ha llegado a desencadenar los temores y fobias de muchos que pregonan no sólo la muerte del libro, sino también la del pensamiento "racional".

Sin embargo, el hipertexto no elimina la escritura y la lectura, el hipertexto no elimina el libro, sino que expande los modos de lectura y escritura, crea nuevos soportes, nuevos formatos de almacenamiento y procesamiento de textos y nuevas funcionalidades, y aporta nuevos modos de expresión, acceso a la información y vías para adquirir y compartir conocimiento. Por otro lado, el hipertexto favorece nuevos modos de edición y publicación y hoy cualquier persona, con unas herramientas mucho más sencillas, fácilmente accesibles y menos costosas que en épocas anteriores, se puede convertir en editor, "impresor" y distribuidor de sus propias obras. El mundo de la edición se ha modificado notablemente gracias a los ordenadores a los que Nelson llamó “máquinas literarias” ". La nueva impresión digital en papel o en otros medios o formatos de texto electrónico como los e-books o los archivos pdf y, sobre todo, la publicación y difusión de hipertextos en la web, han revolucionado no sólo el mundo del libro y de la edición, sino también todo el universo relacionado con las ciencias de la información y la documentación: las bibliotecas, las técnicas documentales, el periodismo, la formación, educación e investigación, y todas las formas de acceso a la información, en el conocimiento y la cultura.

A ninguno de nosotros nos extraña ya la idea de leer a través de una pantalla los contenidos que anteriormente leíamos sobre un papel. La velocidad a la que ha cambiado la forma de volcar contenidos en un soporte adecuado a nuestras necesidades, ha convertido a éstos en un gran negocio que comenzó hace siglos con la aparición de la Imprenta y que llega a nuestros días con la aceptación social de los llamados "tablets". Estos soportes deberían ser un simple ayudante para obtener los contenidos que se nos ofrecen -la calidad de los mismos debería ser lo que nos preocupase-, pero lo cierto es que desde los libros hasta las pantallas de un ordenador, son estos soportes los que han conseguido equipararse e incluso eclipsar a los contenidos para convertirse en los receptores del interés popular.

Es obvio que las facilidades y contingencias que ofrecen los textos ubicados en soportes tecnológicos, otorgan al lector infinidad de posibilidades distintas que no obteníamos antes con los soportes clásicos. Una de ellas, quizá la más importante y práctica, sea el hipertexto. Wikipedia lo define como "el nombre que recibe el texto que en la pantalla de un dispositivo electrónico, permite conducir a otros textos relacionados, pulsando con el ratón o el teclado en ciertas zonas sensibles y destacadas". Esta herramienta es en la actualidad casi indispensable a la hora de leer un texto en Internet. Todos conocemos ya esta opción y a ninguno nos extraña abrir un texto y ver multitud de palabras o frases en otro color o subrayadas, lo que nos indica que podemos hacer clic sobre ellas y redirigir nuestra información a ese campo concreto. Esto es el hipertexto.

Otra de las herramientas más comunes que nos ofrece son las ventanas en la pantalla, algo de lo que habla y profundiza María Jesús Lamarca Lapuente en su tesis doctoral, argumentando que "la proliferación de pantallas, y más concretamente, lo que se denominan ventanas dentro de la pantalla del ordenador, fraguan el hipertexto. Las ventanas superpuestas en una pantalla hacen posible la multisecuencialidad del hipertexto. Las páginas del hipertexto no son un rosario encadenado de hojas de papel, sino una sucesión y una superposición de ventanas que se manifiestan por medio de las interfaces gráficas de los programas vistos a través de los navegadores. De igual manera, los programas se abren y se cierran y podemos tener abiertas varias aplicaciones a la vez y realizar diferentes tareas. Con sólo un clic de ratón pasamos de una pantalla a otra. También podemos desplegar dos o más ventanas a la vez y colocarlas a nuestro gusto enfrentándolas en posición horizontal, vertical o en forma de mosaico. Igual que la lectura del hipertexto se puede fragmentar en múltiples ventanas, es corriente ahora fragmentar la pantalla del televisor en varias ventanas para ofrecer varias imágenes a la vez o para mostrar una acción o un hecho visto desde diferentes perspectivas, algo muy utilizado en los acontecimientos deportivos. Al igual que en la pintura el marco era también una ventana, es decir, un recuadro que servía para separar la realidad de su representación, la ventana del hipertexto sirve tanto para tomar imágenes (encuadre de la cámara fotográfica, de vídeo o cinematográfica), como para mostrarlas o proyectarlas. Una pintura o una fotografía siempre tienen un marco espacial, un recuadro que delimita sus contornos." (María Jesús Lamarca Lapuente, Hipertexto: el nuevo concepto de documento en la cultura de la imagen, Universidad Complutense, Madrid 2011).


2.1.2 La revolución táctil

Al tiempo que evolucionan los medios a través de los cuales se transmite la información, evoluciona también el hardware utilizado para su transmisión. Durante los últimos años, asistimos a una explosión de dispositivos móviles para los que no es necesario ningún elemento más que las manos. Es lo que se ha dado en llamar la revolución táctil. La aparición de la teconología que permite fabricar pantallas que se manejan con los dedos, junto a la movilidad que proporcionan los dispositivos que se fabrican, sobre todo por su ligereza, unido todo ello a la revolución de sistema operativos nuevos que deja en manos del usuario la configuración de su propio universo táctil ha creado nuevas formas de comunicación y desarrollado nuevos ámbitos de aplicación para los periodistas.

http://recursostic.educacion.es/observatorio/web/es/equipamiento-tecnologico/hardware/1012-tablets-la-revolucion-tactil-

Los usuarios están asistiendo a una rápida alfabetización táctil casi al mismo tiempo que se extiende la alfabetización digital, verdadera barrera cultural hoy en día. Se ha pasado de complejos sistemas de comunicación, del teléfono móvil conocido como “ladrillo” de los años 80 a aparatos que apenas pesan cien gramos y se pueden usar con un dedo. El desarrollo de los sistemas de transmisión permite que lo que queremos comunicar como profesionales de la información llega al instante y a golpe de un dedo al receptor, lo que permite una gran inmediatez que provoca, a sua vez, una profunda volatilidad de la información que transmite el profesional de la información. Es por ello que cambian las maneras en que informamos, ya que deben adaptarse a un entorno cambiante. Los dispositivos táctiles, desde el Ipad a las tablet que ya se comercializan a precios inferiores a los teléfonos móviles, ponen al alcance del usuario información en tiempo real y exigen del periodista una agilidad que puede ir en detrimento de la calidad de la información si no se cuida, al tiempo, la formación digital del periodita.
Este fenómeno es todavía emergente y ha sido poco estudiado, pero podemos convenir en que se está produciendo una revolución silenciosa de la que no podemos prever su final. Autores como Jean Baudrillard, filósofo y sociólogo francés, hablan ya de la Edad Eléctrica, de la que habla así: “La Electric Age pone fin a varios siglos de cultura visual, de división técnica, de individualismo y de nacionalismo, y nos reintroduce en la comunicación instantánea y en la relación tribal (que fue la de las culturas orales que precedieron a la imprenta)”. Se basa en la obra que Marshall McLuhan, Understanding Media, escrito en 1964.
La Edad Elétrica ha irrumpido más que nunca en la palma de la mano.

http://odedispmov.blogspot.com.es/2012/03/pantallas-tactiles.html

http://www.youtube.com/watch?v=jYIOFoRw3zY&feature=related

Los periodistas deben responder al reto que supone la movilidad e inmediatez que exigen los nuevos medios de transmisión y recepción. Se puede enviar al instante texto y video para su consumo por el usuario, como decimos, en la palma de su mano. Por lo tanto es necesario que surjan nuevas formas de comunicación más ágiles que nos permitan ofrecer un producto apropiado.

En este sentido, la aparición de nuevos periféricos como las tabletas digitales o los smartphones han creado una nueva ola de consumo de la información. El Kindle, con unas ventas , y principalmente el iPad de Apple, cuyas ventas aumentan exponencialmente cada año, son dos dispositivos especialmente prácticos para el consumo de información por su sencillez de uso y la disponibilidad de miles de aplicaciones preparadas para ello. Desde las aplicaciones de diarios y otras publicaciones hasta los lectores de noticias RSS o las revistas para tablets, uno de los medios que más éxito parece haber obtenido en los últimos tiempos.

2.1.2.1. Kindle y iPad como estandartes de la revolución táctil


El Kindle, que apareció en el año 2007 (Wikipedia) de la mano del gigante de la distribución por Internet Amazon, apareció orientado principalmente al consumo de libros en formato digital (ebooks). Con el paso de los años, el lector de libros fue adquiriendo nuevas características como la conexión a Internet a través de 3G sin coste extra para el usuario, como las diferentes aplicaciones para descargar diarios. La versión más reciente, el Kindle Fire HD, es una tableta multimedia que permite, además de la lectura de ebooks, la reproducción de películas y música y la descarga de aplicaciones a través de la tienda. Basado en el sistema operativo Android, el nuevo Kindle permite la descarga de diarios y revistas en formato digital. En el siguiente vídeo se muestran las principales características del lector Kindle más avanzado y que llegará a España en noviembre de 2012. (The Verge)







Por otro lado encontramos el iPad, de la compañía Apple. Un dispositivo táctil, al igual que el Kindle Fire HD, basado en el sistema operativo iOS y que a finales de 2012 presentó su nueva generación para hacer frente a los productos basados en Android como el mencionado Kindle HD. Se trata del iPad mini, una tableta algo de dimensiones más reducidas que las del modelo tradicional (de 9,7 pulgadas pasa a tener 7,9) y con un precio más ajustado. En el iPad, al igual que en el Kindle HD, se pueden descargar miles de aplicaciones, juegos, contenido multimedia y otras aplicaciones de productividad. El Quiosco de Apple, conocido en su versión original como "Newsstand", es una aplicación creada para la descarga de revistas y periódicos, es uno de los principales éxitos de la tableta. Esta aplicación permite la suscripción de los usuarios a contenidos periodísticos de todo el mundo y su descarga sin apenas esfuerzo (Journalism.co.uk, 2012).

Imagen del Quiosco de Apple
Imagen del Quiosco de Apple

Desde su publicación, lanzada con la quinta versión del sistema operativo iOS, las revistas existentes con versión para la tableta de Apple experimentaron un importante crecimiento en usuarios y publicaciones como Popular Science+ obtuvieron el triple de suscriptores tras el lanzamiento de la aplicación. (FolioMag, 2012). Otros editores como Condé Nast vieron como sus sucriptores digitales crecieron un 268% en dos semanas y Future US afirma que tras el lanzamiento de la aplicación los suscriptores digitales han alcanzado el 40%.


Recientemente hemos visto un caso en el que el soporte trasciende y llega hasta el contenido. The silent history publicado por Ying Horowitz & Quinn es un e-book se puede adquirir en iTunes y es un ejemplo de esto, probablemente, una iniciativa que se convertirá en pionera de una nueva forma de leer. Esta iniciativa permite expandir el potencial a los e-books, combinándola con entregas periódicas, que tendrán un coste para el lector. Además, permite el uso de la pantalla táctil de la geolocalización por GPS, activándose contenidos por cercanía con el lugar que aparece en la narración. Cada episodio se puede leer en unos diez minutos y se actualiza automáticamente en el iPad o iPhone, similar a la serialización de novelas tan típica de los folletines del siglo XIX, enlazando lo clásico con lo actual.




2.2. Topografía general de la Web social

El ya citado libro de Antonio Fumero y Genís Roca, Web 2.0, ofrece un apasionante recorrido sobre el mapa de la Web 2.0, y nos ofrece numerosas pistas para trazar una buena carta de navegación que nos aproxime, como ciberperiodistas, al nuevo medio.
Apuntaremos, no obstante, algunas ideas generales en este punto.
La primera de ellas tiene que ver con la naturaleza cambiante de esta nueva generación Web. Los propios términos (Web 2.0, etc.) dicen ya mucho sobre el carácter “líquido” y constantemente evolutivo que posee (más allá del debate sobre su dimensión marketiniana)
Así, no es nada raro que nos encontremos distintas propuestas que tratan de categorizar la disparidad de medios, contenidos y servicios que forman parte, actualmente, de esta nueva web.

t2-mapa-web2.png


t2-mapa-web21.png


external image web1.jpg

web20-2.jpg


Los grupos de investigación Socmedia y Ciberimaginario proponen una clasificación que se fundamenta en el presupuesto de que en el modelo actual de la Red, todos los servicios poseen elementos de Contenido, de Relación y de Gestión de la Información. Aún así, en cada caso existe un elemento predominante sobre los demás.
t2-mapa-web22.png
external image socmedia.jpg

2.3. El futuro inmediato: la web 3.0


external image web_3_0.jpg

La idea de web 3.0, pronosticada para la década 2020-2030 por Rada Networks & Nova Spivack, consiste en la evolución de la interacción que se había iniciado en la versión 2.0. El término fue acuñado por Jeffrey Zeldman en un artículo publicado en 2006.Define a la red como una enorme bases de datos que daría servicio a múltiples aplicaciones implementadas con inteligencia artificial, web semántica, web geoespacial y web 3D (equivalente a los actuales televisores en tres dimensiones). Sin embargo, esta definición aún debe perfilarse y estandarizarse.

Por ello, no se puede hablar de una definición universal de “Web 3.0”, no habiendo consenso a la hora de determinar los pasos más apropiados a seguir para su desarrollo, encontrándonos con avances bastantes dificultosos y lentos. Las definiciones pasan desde un amplio acceso de banda ancha móvil hasta una web de servicios de software on-demand; la solución podría pasar por combinar técnicas de inteligencia artificial con la capacidad humana para llevar a cabo tareas demasiado complejas para un ordenador.

También debemos destacar a John Markoff quién en un artículo del New York Times definió la Web 3.0 como un “conjunto de tecnologías que ofrecen nuevas formas eficientes para ayudar a los equipos de organizar y sacar conclusiones de datos en línea”.
Muchas administraciones pública ya utilizan herramientas propias de la web 3.0, como el ayuntamiento de San Vicente en Alicante. A continuación, dos video explicativos sobre lo que consiste:


DEFINICION GEOWEB

La Web Geoespacial o GeoWeb es un término muy nuevo que implica la fusión de la geografía (basados en la localización) con la información abstracta que domina actualmente Internet. Esto permite crear un ambiente en donde se podrán buscar las cosas basandose en la ubicación del lugar por medio de una palabra clave solamente,

La geoweb es una web que integra datos geográficos que nos permiten localizar una tienda o el lugar donde se toma una foto.

Estamos en un continuo avance hacia la Web 3.0, encontrándonos así ante nuevas formas de acceso e interacción en la red. Podemos destacar cuatro factores básicos a la hora de hablar de este concepto:
  • la web semántica, término acuñado por Tim Berners-Lee, es un proceso evolutivo en construcción permanente en el que buscamos el verdadero significado de las cosas. Innovando desde la Web 2.0 para llegar a la Web 3.0
  • el auge de la inteligencia artificial.
  • la web 3D, que muchos ven como una extensión del mundo real, donde se podrárecorrer el planeta a través de ella, sin abandonar el escritorio. Google y Microsoft trabajan en este tipo de proyectos.
  • la transformación de la red en base de datos.

El camino hacia la llamada Web 3.0 tiene sus antecedentes, hablamos así de la Web 1.0 y la Web 2.0, de forma tal que pasamos de una red que permitía leer (1.0) a una red que permitía leer y escribir (2.0). Por contrapartida, en la Web. 3.0 el usuario asume un rol mucho más activo al poder asociar los distintos y variados contenidos existentes en las páginas web. En El significado de la Web 3.0 nos introducen un nuevo concepto, la web permanente u omnipresente o pervasive web, que es una web que está en todas partes, no solo en el PC, sino también en la ropa, el automóvil, las joyas...

De forma tal que cada década se corresponde con un enfoque de ingeniería distinto. Web 1.0 fue una década de fondo, se centraba en la plataforma básica de la web, en su estructura de enlaces y en su sistema de navegación. Web 2.0 se caracteriza por una dedicación casi exclusiva en los usuarios y en la utilidad de la red para los mismos, donde los internautas establecían las distintas conexiones entre sí. En la Web 3.0, se produce una renovación de la clave del índice de la web, donde un buen ejemplo de la tecnología lo apreciamos en "el lenguaje natural de búsqueda".

Los datos que se manipulan en la web 3.0 son completamente semánticos, lo que permite un tratamiento “más inteligente” por parte del ordenador. Ante la disparidad de formatos y microformatos en la red, se ha desarrollado la tecnología SPARQL que favorece la integración e interoperabilidad de los datos (lo que también se conoce como “Data Web”).

imagen_3.0.png

Los algoritmos que sirven como motor para la web 3.0 están basados muy frecuentemente en técnicas de inteligencia artificial, imitando la manera de razonar del ser humano mediante codificación lógica y agentes expertos. Las tecnologías empleada para estas implementaciones son asíncronas y orientadas a dispositivos móviles, con soporte plurilingüe y accesibles para discapacitados.

En poco más de una década, la web será capaz de conectar todos los aspectos de nuestra vida digital, ya sea una página web, un correo electrónico o un archivo en nuestro ordenador, pudiendo el mismo saber cuando estamos escribiendo un e-mail, el tema a tratar en el correo o incluso ser capaz de sugerir distintos sitios web y libros, así como documentos, fotos y videos que pudieran ser relevantes para ese tema. En otras palabras, la web se está convirtiendo en inteligente.

Citando a Nova Spivack, la Web 3.0 se refiere al intento de los tecnólogos de reformar radicalmente la plataforma básica de Internet para que toda aquella información que reside en ella conecte entre sí. Si la Web 2.0 trata de aprovechar la inteligencia colectiva de la multitud para dar información de un valor, la Web 3.0 trata de dotar a la propia red de un “cerebro”.
Por último y como elemento en el camino de la Web 3.0, ya que en la misma se utiliza un modelo tridimensional transformándola en una serie de espacios 3D, debemos tener presente el concepto de Web 3D , como prolongación de los mundos virtuales y parejo a la más que conocida Second Life donde se gestiona el uso de avatares personalizados.


Cuando aún estamos en puertas de acceder al modelo de Web 3.0 ya se está empezando a definir lo que será la Web 4.0. Esta partirá de la presumible evolución lógica del concepto 3.0, y resultaría de la suma de Web 3D + Web semántica (Web 3.0) + inteligencia artificial + voz como medio de intercomunicación.

Su objetivo primordial sería el de unir inteligencias para que la toma de decisiones tenga lugar tras la comunicación entre personas y ordenadores.

Según el cibergurú Raymond Kuzweil se prevé que para el año 2020, a través e la Web 4.0 (Web Ubicua), los diferentes agentes que la conforman se conozcan, aprendan y razonen como lo hacemos los humanos.


Documento para ampliar información:
Web 3.0
View more presentations from Edelman


Los expertos la denominan la web semántica o web de datos ya que parte de la base de añadir información adicional que complementa un contenido y obviamente incrementa el significado de los datos. Una combinación entre contenido que integra los portales web y el conjunto de inteligencias artificiales que optimiza dicho contenido.
Estamos por lo tanto ante la consolidación de un nuevo ciclo en el que la inteligencia artificial se combina con la capacidad de las personas con el fin de lograr el establecimiento de un nuevo orden social a través de la red. La interactividad, la conectividad permanente y el movimiento constante son los pilares fundamentales sobre los que se asienta este nuevo ciclo por el que transitamos. La web 3.0 nos sitúa ante un nuevo proceso en permanente cambio, crecimiento y evolución.
La web 3.0 es un término que se utiliza para describir la evolución del uso y la interacción en la red. Esto se está consiguiendo a través de la incorporación de la inteligencia artificial y la web semántica. En cualquier caso, actualmente, existe un debate considerable en torno a lo que significa web 3.0 y cuál puede ser la definición más adecuada. Parece que el objetivo es mejorar internet ampliando la interoperatibidad entre los sistemas informáticos usando los llamados “agentes inteligentes”, es decir programas que buscan información sin operadores humanos.
los avances de esta especialidad son todavía lentos, se cree que la solución podría estar en la combinación de las técnicas de inteligencia artificial con el acceso a la capacidad humana de realizar tareas extremadamente complejas para un ordenador.
http://sociedadinformacion.fundacion.telefonica.com/podcast/web3_e.mp3

A pesar de que puede parecer que la web 3.0 es el futuro perfecto de Internet, pues integrará nuevos procesos semánticos que facilitarán y agilizarán todos los procesos de la actual web 2.0, no todo es tan perfecto como parece y, como todo, conlleva una serie de inconvenientes. En palabras de Kate Ray, licenciado en periodismo y psicología por la Universidad de Nueva York y trabajador en kommons.com, "El principal problema de las nuevas generaciones de Internete es que nuestra habilidad para generar información ha excedido con creces nuestra habilidad para gestionarla". El siguiente documental, realizado por este periodista, expone estos problemas, amparándose en las visiones y las críticas de una serie de expertos, entre ellos Tim Berners-Lee (inventor del World Wide Web), Nova Spivack (emprendedor en web semántica) o Clay Shirky (escritor y profesor en Nuevos Medios de Comunicación, Universidad de Nueva York).



Transcripciones del documental



Principales rasgos de la Web 3.0[1]

La Web 3.0 se basará en un Internet más “inteligente”, los usuarios podrán hacer búsquedas más cercanas al lenguaje natural, la información tendrá semántica asociada y la Web podrá relacionar conceptos de múltiples fuentes, también podrá deducir información a través de reglas asociadas al significado del contenido.
La frase “Web Semántica” hace referencia a la posibilidad de usar anotaciones de significado en el contenido para hacer deducciones básicas. Es por esto que la Web 3.0 será otra era de búsqueda de información. La búsqueda de información será refinada por el dominio especifico, contextualizada y la experiencia del usuario será mas amigable.

Los agentes inteligentes de la Web Semántica

La Web Semántica tabajaría a partir de agentes denominados inteligentes de sotware que cumplen a serie de funciones como comprender contenidos, validar y contrastar la información o deducir nueva información a partir de la anterior.
A diferencia de los buscadores, un agente inteligente explora la web a partir de los enlaces entre recursos de modo que, por ejemplo, frente a la solicitud de búsqueda del usuario, sería capaz de consultar los resultados de un buscador y explorar la web a partir de éstos, llegando a realizar una acción sobre dicho recurso.

Esto implicaría una toma de decisión efectiva delegada en el software, reduciendo así la mediación de operadores humanos.

Por otro lado, estas operaciones lógicas requieres la definición de la estandarización de determinadas categorías como el afabeto que aplica, el lenguaje, el código, el formato o las reglas y sistemas deductivos que utiliza.

Tecnologías relacionadas con la Web 3.0
  • RDF: Este modelo se basa en la idea de convertir las declaraciones de los recursos en expresiones con la forma sujeto-predicado-objeto (conocidas en términos RDF como tripletes). El sujeto es el recurso, es decir aquello que se está describiendo. El predicado es la propiedad o relación que se desea establecer acerca del recurso. Por último, el objeto es el valor de la propiedad o el otro recurso con el que se establece la relación. La combinación de RDF con otras herramientas como RDF Schema y OWL permite añadir significado a las páginas, y es una de las tecnologías esenciales de la Web semántica. Para más información visitar: Marco de Descripción de Recursos (Wikipedia)
  • Ontologias: El término ontología en informática hace referencia al intento de formular un exhaustivo y riguroso esquema conceptual dentro de un dominio dado, con la finalidad de facilitar la comunicación y la compartición de la información entre diferentes sistemas. Aunque toma su nombre por analogía, ésta es la diferencia con el significado filosófico de la palabra ontología. Un uso común tecnológico actual del concepto de ontología, en este sentido, lo encontramos en la inteligencia artificial y la representación del conocimiento. En algunas aplicaciones, se combinan varios esquemas en una estructura de facto completa de datos, que contiene todas las entidades relevantes y sus relaciones dentro del dominio.
  • Inteligencia Artificial: La IA le agrega a este set de tecnologías la parte de procesamiento computacional para deducir nuevo conocimiento a partir del que se brinda por las distintas fuentes de conocimiento. Básicamente la IA toma como entrada las reglas y relaciones entre los conceptos, objetos y deduce nuevas verdades haciendo crecer la base de conocimiento.
Para una lectura más profunda sobre IA visitar: Inteligencia Artificial (Wikipedia)



Resulta interesante este enlace a una comparativa entre la funcionalidad y herramientas disponibles en la web 2.0 frente a la nueva versión, la web 3.0. llevado a cabo por la empresa Mindomo, una pequeña empresa de software que facilita software para crear mapas mentales mediante el aprovechamiento de los mecanismos internos de la mente humana.

En resumen, la web 3.0 logra, a través de la interconexión de las personas y las maquinas una nueva civilización en la que se optimizan las bondades del ser humano a través de los valores inherentes y únicos, con eficiencia y de la inteligencia artificial.
A veces cuando los expertos hablan sobre el futuro de internet y las nuevas tecnologías parece ciencia ficción paro debemos saber que nos encontramos en el tránsito hacia una nueva era; en un futuro no muy lejano el ser humano incorporará definitivamente la conectividad permanente.


[1] [http://mbasilico.com.ar/2012/03/25/web30-la-web-inteligente/]

2.4. De la Web 1.0 a la Web 4.0



Al referirnos a 1.0 o 2.0 no se trata de una versión del producto, la Web es denominada así por las evoluciones sufridas en el trascurso del tiempo.
En primer lugar, la Web 1.0 comenzó su andadura en la década de los años 60, de la forma más sencilla que existe, con navegadores de solo texto, como ELISA, que era bastante rápido pero muy simple. Después en los 90 surgió HTML (Hyper Text Markup Language) como lenguaje hipertexto e hizo que las páginas Web sean más agradables a la vista y puedan contener componentes como imágenes, formatos y colores. Los primeros navegadores visuales fueron Netscape e Internet Explorer.
Esta Web es de solo lectura, ya que el usuario no puede interactuar con el contenido de la página (ningún comentario, respuesta, etc). Estando la información totalmente limitada a lo que el Webmaster pueda publicar.


La Web 2.0, en cambio, es un concepto que se originó en una sesión de brainstorming (o lluvia de ideas) entre Dale Dougherty de O’Really y Craig Cline de MediaLive International, quienes estaban preparando una conferencia y decidieron hablar del renacimiento de la Web después de la crisis de los punto com en 2001, en la que fracasaron páginas Web de muchas empresas.


A partir de estas ideas, en una conferencia en octubre de 2004, caracterizan a la Web 2.0 como una nueva actitud o evolución de la Internet, que se resumía en tres principios básicos: la web como plataforma, la inteligencia colectiva y la arquitectura de la participación.


Dicho de otro modo, este término propuesto por Tim O'Reilly se refiere a una segunda generación en la historia del desarrollo de tecnología Web, basada en comunidades de usuarios y en una amplia gama de herramientas, como las redes sociales, blogs, wikis y otros, que fomentan la colaboración y el intercambio de información. La Web 2.0 es también llamada Web social por el enfoque colaborativo y de construcción social de esta herramienta, donde el usuario es el ente más importante de información.


2.4.1 Web 3.0 y Web 4.0


A fecha de hoy ya no se habla solamente de la Web 2.0, sino también de la 3.0 y hasta de la 4.0. Si bien estas no están tan difundidas como la Web 2.0, representan una evolución considerable.


La Web 3.0 es considerada también como una extensión de Web Semántica definida por el premio Nobel Sir Timothy “Tim” John Berners – Lee. Y trata de poder enriquecer la comunicación mediante metadatos semánticos (ontologías) que aportan un valor añadido a la información, la diferencian y la hacen más inteligente. Por lo que los contenidos ahora ya no son tratados por su sintáctica sino por su semántica.
Y la Web 4.0 es un término que se va acuñando recientemente y trata de movernos hacia una Web Ubicua donde el objetivo primordial será el de unir las inteligencias, para que tanto las personas como las cosas se comuniquen entre sí para generar la toma de decisiones.
Los primeros pasos de evolución se dieron con la llegada de la Web 2.0, ahora se trata de entender avances que tendrán la Web 3.0 y Web 4.0, y aunque los términos son muy abstractos, se tienen expectativas de muchas posibilidades de unificación de información.
Si resumimos, la evolución puede resumirse en:


Web 1.0 - Personas conectándose a la Web y la Web como punto de información estática.
Web 2.0 - Personas conectándose a personas, la inteligencia colectiva como centro de información y la Web es sintáctica.
Web 3.0 - Aplicaciones Web conectándose a aplicaciones Web, las personas siguen siendo el centro de la información y la Web es semántica.
Web 4.0 - Personas conectándose con Personas y aplicaciones Web de forma ubicua, se añaden tecnologías como la Inteligencia Artificial, la Voz como vehículo de intercomunicación para formar una Web Total.

3. Soportes

Hoy en día contamos con una variedad tal de productos, de plataformas, y sistemas de creación multimedia que a la hora de abordar las características técnicas bajo las que se operan, esta cuestión, por sí sola, nos ocuparía más allá de lo que parece razonable para el marco de estas asignaturas. Por una parte, porque desbordaría el ámbito competencial de la Comunicación multimedia, de otra, porque sería inabordable hacerlo en profundidad en una revisión teórica de este tono. Por ello, lo que se ofrece a continuación es, fundamentalmente, una revisión genérica sobre cuáles son las herramientas de producción que permiten la construcción de textos multimedia y, aún más importante, conocer qué aportan, y cómo lo hacen, en el proceso de realización de un productos multimedia informativos. El conocimiento sobre ambas cuestiones es, sin duda, imprescindible para el ejercicio profesional, no tanto porque vaya a ser una necesidad la aplicación directa del mismo, sino porque se trabajará en un contexto en el que el manejo mínimo de estos conceptos, en la relación con otros profesionales del ámbito técnico, facilitará notablemente los procesos laborales y el alcance de los resultados deseados.
Pulsando sobre esta imagen, podrás acceder a una animación que muestra de forma resumida algunos de los principales hitos evolutivos de la web.
t2-evolucion-web-google.png

3.1. Lenguajes esenciales

La evolución de los lenguajes de programación es tan activa como la propia evolución de los dispositivos y soportes multimedia y, especialmente, de la red Internet.
Cada uno de ellos cumple una función determinada en un desarrollo multimedia. Mientras los primeros cumplen una función básica de estructuración y modelado de apariencia, los segundos son la base sobre la que se sustentan las rutinas esenciales, y los últimos se encargan, en la mayoría de los casos, de manejar los comportamientos interactivos que se producen entre el usuario y el sistema.
Para comprender mejor cómo nos servimos de cada uno, cuáles son los que nos interesan desde la perspectiva de la Producción y Realización multimedia, y cuáles son sus características, daremos un repaso rápido por los que resultan fundamentales para nosotros.
Básicamente podemos hablar de los siguientes tipos de lenguajes de desarrollo:
  1. Lenguajes de marcado (HTML, XML, XHTML…) Es un lenguaje capaz de modificar un documento donde, junto con el nombre se incorporen etiquetas, marcas o anotaciones con información adicional. Es la tipología de lenguajes utilizados dentro del entorno de productos web. Recientemente se ha publicado la versión 5 del lenguaje HTML que mejora y normaliza notablemente algunas de sus posibilidades, especialmente las relativas a la inclusión de elementos multimedia. En la metodología actual, operan de forma separada pero conectada con los lenguajes de presentación (CSS y CSS2) y los lenguajes de scripting.

En este vídeo se explica de manera muy didáctica la utilidad de estos lenguajes y su relación con la web 2.0:



Existen tres clases de lenguajes de marcas:
  • Marcas de presentación: indican el formato-marco del texto
  • Marcas de procedimientos: se utilizan para la interpretación del texto, interpretándose cada una en el orden en que aparecen.
  • Marcas descriptivas o semánticas: se utilizan para describir marcados de texto sin especificar cómo deben representarse.

Entre los lenguajes de marcado más comunes, se encuentra el HTML, que goza de las ventajas de su secillez y de no requerir herramientas especializadas. Sin embargo también reúne una serie de inconvenientes como el carecer de chequeo sintáctico y estructura lógica, estar orientado a la represantación de los datos y no a su estructura, no permitir la reutilización de la información, etc.Otro tipo de lenguaje muy común es el XML, que destaca también por su facilidad de uso y porque permite un fácil intercambio de información entre aplicaciones.


  1. Lenguajes de programación(C++, Phyton, Java…) Fuera del entorno web, esta tipología de programas suele ser la más utilizada. La programación para videojuegos tiene algunos elementos diferenciales. De entrada, los lenguajes utilizados son distintos; en este caso, C++ y OpenGL suelen formar la base de los lenguajes de programación sobre los que se desarrollan los programas. Además, es habitual el uso de librerías y motores gráficos. Buena parte de las aplicaciones de movilidad se realizan bajo estos entornos. Para los dispositivos móviles, el lenguaje más usado es J2ME, una variante adaptada del lenguaje de programación Java.
  2. Lenguajes de scripting(JavaScript, Actionscript, PHP…) Se trata de lenguajes interpretados utilizados, fundamentalmente, en el diseño de productos web para otorgar interactividad.
  3. Inteligencia Artificial.El recorrido de la Inteligencia Artificial (IA) es ya largo. Aunque es cierto que aún hoy la IA no es tan “inteligente” como se esperaba hace dos decenios, su aplicación en el campo del desarrollo de software es cada vez más omnipresente. En el campo de los videojuegos, la aplicación de la IA es fundamental para ir ampliando las posibilidades interactivas, y la jugabilidad, del juego. Las investigaciones en este campo se orientan a:
    1. Modelización de agentes virtuales (personajes).La Escuela Superior de Cómputo del Instituto Politécnico Nacional (IPN) de México, por ejemplo, ha desarrollado una investigación dirigida a la elaboración de un sistema que permite que los personajes de un videojuego tengan “personalidad propia” de modo que puedan tomar decisiones, elaborar planes o llevar a cabo determinadas tareas.
    2. Extra-sensorialización de las interfaces. La empresa Sony ha adquirido la patente para desarrollar un sistema de información sensorial, mediante un electrodo colocado en el cuello, gracias al cual se podrá oler, probar y tocar en los videojuegos

Historia de la Inteligencia Artificial, un paseo por esta ciencia, de la mano del físico y futurista, Dr.Michio Kaku. Se trata de un documental del canal Historia, compuesto por 6 episodios, que nos explica la evolución y la capacidad de este fenómeno, hacia dónde nos lleva el futuro y de donde viene, sus comienzos.





  1. Lenguajes de modelado de Realidad Virtual(RV) La Realidad Virtual (RV) permite la recreación, por medio de sistemas software, de entornos, cosas u objetos de forma sintética a través de la simulación de sus condiciones reales (físicas) o imaginarias. Se trata, de una realidad perceptiva sin soporte objetivo (…) por eso puede afirmarse que la Realidad Virtual es una pseudorrealidad alternativa. Podemos clasificar la realidad virtual según la relación que establece el usuario con ella:
    • Inmersiva: El usuario accede a un entorno tridimensional que puede manipular por medio de prótesiso sistemas de interfaz multimodal como cascos, guantes, sensores táctiles, etc. Generan una experiencia simuladamente “física” de la vivencia de los elementos narrativos: espacio, tiempo, acción y personajes. Así, se “tocan” las cosas, se “vivencian” los tiempos, se “recorren” los espacios, etc.
    • No inmersiva: El usuario accede a un entorno bidimensional (aunque simule 3D) en el que interacciona básicamente a través de dispositivos tradicionales como el ratón o el teclado. Es el caso de "Second Life".
Una de las posibilidades para generar entornos de Realidad Virtual es a través de lenguajes de modelado de Realidad Virtual. Estos son una subclase de los lenguajes de modelado de diseño de software orientado a objetos. Como aquellos, cuentan con un vocabulario estándar de elementos (símbolos) y una gramática definida sobre el modo de utilizarlos para producir modelos.
El interés de este tipo de soluciones, y de sus posibilidades expresivas, hizo que, a raíz de la primera conferencia internacional de la World Wide Web, se comenzase a desarrollar un lenguaje para la creación de mundo virtuales 3D en Internet. Este lenguaje es VMRL. Con tan solo un plugin añadido al navegador (vg. Cosmo Player, Cortona) nos permite ofrecer una experiencia de usuario más completa y real, es decir, más próxima a cómo manipulamos e interactuamos con el mundo real. VMRL está desarrollado de forma que cumple los requisitos establecidos por el W3C en cuanto tasas de carga, carácter multiplataforma, etc. Para desarrollar con él basta, como en el caso de otros lenguajes orientados a la web, con un editor de texto, aunque existen asistentes y editores especializados como, por ejemplo, WMRL Pad, que simplifican el diseño orientándolo, manteniéndolo y asistiendo en los posibles errores que se puedan cometer.
t2-diseno-wmrl.png
Entorno de diseño WMRL. Fuente: Capturas WMRL Pad. Elaboración propia.


Como evolución del lenguaje VRML, y engarzado dentro del estándar MPEG-4 (ya que es una capacidad integral del reproductor), el lenguaje BIFS (Binary Format for Scenes) ofrece técnicas sofisticadas para dividir una escena en los objetos que la componen. El sistema permite la composición y transmisión por capas, utilizando el sistema conocido como Modelo de pantalla multiplanar, en la que los objetos de una composición están integrados en un sistema flotante que permite jugar con las transparencias de cada uno de ellos.
Algunas de las aplicaciones que permite este nuevo lenguaje son:
  • Audio bajo demanda en Internet.Dado que se integra en el reproductor MPEG-4 ofrece altos parámetros de calidad de audio para aplicaciones en la web.
  • Digital radio broadcasting.Permite realizar la digitalización y distribución de radio AM.
  • Video integrado en Internet.Permite componer e integrar escenas 2D y 3D con inserción de vídeos, etc.
  • Multimedia interactiva multimedia para movilidad.Ofrece altas capacidades de uso del MPEG-4 Video y Audio en dispositivos móviles como teléfonos, PDAs, etc.
  • Digital Multimedia Broadcasting(DMB).
  • Realidad Virtual en Internet. Las características MPEG-4 como streaming, alta compresión y posibilidad de cargar porciones de la escena bajo demanda posibilita la distribución de mundos virtuales.
  • Sitios virtuales en la Red y en modo local. Avanzando en las posibilidades de VRML, permite la creación, almacenamiento y distribución de mundos virtuales complejos.


t2-motor3d.png
SISTEMA DE DESARROLLO DE VIDEOJUEGOS BASADO EN MOTORES 3D. Fuente: Pérez, J. (2005) Entidad 3D

  1. Lenguajes de presentación. Los lenguajes de presentación realizan, como indica su nombre, un modelado de otro lenguaje (habitualmente de marcado) para realizar una presentación visual determinada. El lenguaje de presentación por excelencia en la web es CSS (Cascade Shets Style). El otro lenguaje de presentación, en este caso multimedia, es SMIL (Synchronized Multimedia Integration Language) Este, como el anterior, es un estándar del W3C, si bien su uso no es tan masivo.
  2. Sistemas y técnicas 3D. El desarrollo de un videojuego es una tarea que crece en complejidad a medida que aumentan las opciones y características que ofrece el mismo. Bien es cierto que un sistema muy complicado, con una programación experta y un diseño gráfico extraordinario no garantiza per se, que acabe teniendo mayor jugabilidad que un juego simple de texto. Sin embargo, el dinamismo de este sector ha hecho que las producciones de videojuegos sean, en general, realmente sofisticadas. En este marco, la programación desde “cero” de un proyecto puede aumentar aún más los costes ya sobresalientes de una producción de renombre. Para estas, y para aquellas otras que no disponen de tales posibilidades, los motores 3D son óptimas soluciones que permiten que determinadas operaciones de baja rutina no tengan que ser programadas. Las opciones que proveen estos motores van desde rutinas sencillas, como modelar objetos o disparar un sonido, a cuestiones más complejas como la generación de espacios, la animación de actores, control de acciones, manejo de elementos como texturas, etc.
Actualmente, existen soluciones de amplio espectro basadas en motores 3D que permiten el desarrollo de videojuegos 3D ensamblando elementos a través de herramientas de composición. Un ejemplo, en el ámbito hispano de estas herramientas es la aplicación “Entidad 3D”; esta, además de proveer amplias librerías de agentes, texturas, escenarios, etc., permite realizar un videojuego prácticamente sin que sea necesario llevar a cabo programaciones complejas.
t2-motor3d2.png
HERRAMIENTA DE EDICIÓN DE VIDEOJUEGOS. PROGRAMA “WORLD EDITOR”. Fuente: Entidad 3D

En este campo, se cuenta también con Generadores de efectos para multitudes. Son software específicos destinados a crear efectos de muchedumbres, masas humanas, etc. Permiten modelar los caracteres y las reacciones de las multitudes, lo que sirve para determinar qué hacen y cómo se comportan simulando, incluso, reacciones emotivas. Esto consigue montar escenas extremadamente realistas y verosímiles. Programas de este tipo son los desarrollados por la empresa Massive Software (Massive Prime, Massive Jet, etc.)

t2-massiveprime.png
INTERFAZ PRINCIPAL DEL PROGRAMA MASSIVE PRIME

Por otra parte, los sistemas dedicados a la creación de agentes virtuales permiten el desarrollo de técnicas efectivas de procesamiento vinculado con el uso de agentes virtuales en sistemas multimedia.
Se trata de aplicaciones de uso sencillo que poseen una interfaz gráfica de usuario muy intuitiva. Permiten, entre otras cuestiones, diseñar el carácter del agente (normalmente un busto) mediante la edición de modelos base (sexo, características físicas elementales…), editar escenarios y cargar y reproducir sonido a través de distintos medios y en diversos idiomas (grabando la voz mediante micrófono, con sistemas TTS –Text to Speech-, cargando sonidos almacenados, etc.) y publicar e integrar el resultado en cualquier página web, herramienta de presentación y/o animación, o, mediante APIs específicas, establecer comunicaciones dinámicas mediante lenguajes de scripting con sistemas complejos de e-comerce o e-learning.
t2-agentes-virtuales.png
HERRAMIENTA PARA LA CREACIÓN DE AGENTES VIRTUALES. Fuente: Programa SitePal. OddCast


Este tipo de aplicaciones son muy recomendadas para implementar el mercado web, es decir, mejoran la apariencia de las websites de las empresas, dotándolas de mayor practicidad para el usuario. Es una forma de acercar la realidad virtual a los clientes potenciales de un negocio, de manera que la relación sea más cálida que con otras web convencionales.




3.2. Sistemas y aplicaciones

Es sorprendente como, en tan solo unos años, han evolucionado los sistemas y aplicaciones de desarrollo de productos web y, en consecuencia, los procedimientos y modelos para elaborar textos multimedia informativos.
Cuando nos referimos a las herramientas actuales para realizar productos informativos multimedia lo hacemos con la idea de dar cabida a una amplísima gama de soluciones que es heterogénea tanto en el producto, en la cosa en sí, como en los procesos por lo que son motivados (el modelo de producción) y sus opciones de reutilización, rediseño o reusabilidad (los modelos de uso y explotación) Hacemos, pues, extensible el alcance del término a todos aquellos sistemas de desarrollo multimedia que pueden ir desde el modelo proconstructivo y abierto de los editores de código, pasando por el “bricosoftware” basado en herramientas de autoría como los editores Web (Dreamweaver, Expression, entre otras), los gestores de contenidos (CMS) o los nuevos servicios en navegador nacidos de la web de nueva generación (WebNG)

Sistemas de gestión de contenidos (CMS)
Un CMS (Content Management System)es, básicamente, un sistema que contiene un conjunto de herramientas destinadas a la producción de contenidos multimedia de forma sencilla y dirigida.
Una característica básica de los CMS es que separan el contenido de su presentación: el contenido se almacena en una base de datos (por ejemplo, MySQL) mientras que su presentación en la web se diseña y define en una plantilla.
Habitualmente contemplan todas las fases de vida de un producto, fundamentalmente web, por lo que son especialmente interesantes desde el punto de vista de la producción y realización multimedia ya que se orientan a un sector de la producción, y del negocio web, de gran alcance. Así, permiten la creación de contenidos, el mantenimiento, la publicación, el control de presentación, el control de flujos de trabajo, la asistencia de sistemas de colaboración y construcción social de conocimiento, etc.En la actualidad, existen varios miles de CMS en el mercado, cada uno de ellos con características y funcionalidades muy diferentes. Por lo tanto no existe un CMS universal. A la hora de abordar un proyecto en red, deberá atenderse a las necesidades específicas del proyecto para determinar cuál será el CMS más adecuado.

t2-cms-joomla.png
ZONA DE GESTIÓN Y ADMINISTRACIÓN DE UN CMS “JOOMLA”.


Cada CMS resulta más adecuado para una función en particular. Así, Joomla! es uno de los CMS más habituales a la hora de crear un espacio web, mientras que Wordpress (en su versión instalable en un alojamiento propio) está más orientado a la creación de blogs. Por su parte, Pixelpost se revela como una herramienta muy a tener en cuenta a la hora de crear un fotoblog.
Estos sistemas de gestión de contenidos requieren de la instalación de todas las que los componen dentro de hosting propio. A cambio, proporcionan gran flexibilidad a la hora de su administración. Es posible modificar el aspecto final del sitio , instalar gran cantidad de plugins que permitan añadir nuevas funcionalidades (estadísticas, anti-spam...) o integrar elementos multimedia como vídeo o imagen fuera del propio cuerpo principal del sitio.

Una de las principales ventajas del uso de un CMS es su versatilidad y facilidad de uso, así como la posibilidad de asignar diferentes niveles de interacción, de forma que puedan convivir usuarios de perfil técnico medio con los administradores de la web. De esta forma, por ejemplo, una web podría tener un número de usuarios que no tengan más permisos que los de publicación, convirtiéndose así en un sistema fiable y económico para tener controlados todos los servicios sin necesidad de invertir en formación especializada a nivel de administración web para todos los usuarios que participen en la misma.
Cada CMS resulta más adecuado para una función en particular. Así, Joomla! es uno de los CMS más habituales a la hora de crear un espacio web, mientras que Wordpress (en su versión instalable en un alojamiento propio) está más orientado a la creación de blogs. Por su parte, Pixelpost se revela como una herramienta muy a tener en cuenta a la hora de crear un fotoblog. Estos sistemas de gestión de contenidos requieren de la instalación de todas las carpetas que los componen dentro de hosting propio. A cambio, proporcionan gran flexibilidad a la hora de su administración. Es posible modificar el aspecto final del sitio (siempre que se tengan los conocimientos de lenguaje -normalmente CSS- adecuados), instalar gran cantidad de plugins que permitan añadir nuevas funcionalidades (estadísticas, anti-spam...) o integrar elementos multimedia como vídeo o imagen fuera del propio cuerpo principal del sitio.
SISTEMAS DE TRANSFERENCIA DE DATOS

Protocolo de transferencia de archivos (FTP File Transfer Protocol)

El acrónimo de FTP es protocolo de transferencia de ficheros y es un software cliente/servidor que permite a los usuarios transferir ficheros entre ordenadores en una red TCP/IP.
En los medios de comunicación en general se suele trabajar a menudo con archivos de audio y video digital que pueden exceder el tamaño determinado para enviar vía mail.
La mejor forma para trabajar con estos archivos es a través de algún software gratuito de FTP. Algunos ejemplos podrían ser FileZilla o Ace para Windows y Fetch o Cyberduck para Mac.
El acceso es sencillo, sólo se necesita un servidor, el usuario y la contraseña.

El servicio FTP ha evolucionado a lo largo del tiempo y hoy día es muy utilizado en Internet, además de cómo comentaba en redes corporativas, Intranets, etc. Muchos de los enlaces de descarga que se utilizan en Internet, son direcciones que apuntan a un ordenador que está actuando como un servidor FTP.



esquema.png



Por regla general, el FTP es un sistema de transferir archivos estable, es decir, que la descarga y subida que se haga de los archivos tiene alto porcentaje de completarse sin errores de transferencia.

Dropbox

Se trata de un servicio de alojamiento de archivos en la nube (es decir, una especie de disco duro virtual) y que puede cumplir las mismas funciones que el protocolo FTP de cara a un medio de comunicación, ya que permite almacenar archivos, no sólo de datos, sino también de vídeo y audio para después ser compartidos con otros usuarios.

Es un sistema operado por Dropbox que tiene versiones gratuitas y de pago, según la velocidad y el peso total de los archivos que queramos alojar en él.


Es necesario instalar el programa en el ordenador y estar identificado con un usuario y una contraseña, de esta forma podremos acceder a nuestra carpeta virtual desde cualquier ordenador que sea cliente Dropbox. Otra de las facilidades es que nos permite compartir el contenido con cualquier usuario mediante invitación. El archivo puede ser modificado cuantas veces quiera porque el servicio ha programado un historial en el que se puede conocer los cambios que ha sufrido. Además de permitir la recuperación de archivos eliminados.

http://www.dropbox.com/



Otra de las principales ventajas es la nueva aplicación móvil de Dropbox, mediante la cual es posible visualizar y/o subir cualquier archivo.


3.3. Web Social

La web social incluye servicios que determinan la tendencia en la forma de compartir información digital, en este caso es importante definir que internet, comprendería la red de redes que hacen posible que existan servicios como la web, web 2.0.

Herramientas
Herramientas 2.0 son aquellas surgidas de la web 2.0 o “Web Social” que nos permiten dejar de ser un receptor de comunicación y pasar a tener la oportunidad de crear y compartir información y opiniones con los demás usuarios de Internet Las tecnologías Web 2.0 pueden cambiar profundamente nuestra manera de trabajar e interactuar con compañeros y clientes en cualquier tipo de organización, incluidas las empresas."
Por ejemplo: blogs, wikis, microblogging, redes sociales, ofimática 2.0, multimedia 2.0, marcadores sociales, podscasting


La Web social o la Web 2.0 es un fenómeno que está afectando por igual a los diferentes ámbitos de la actividad humana. Se encuentra presente en las relaciones sociales, en la economía, en la comunicación, en la administración, en la educación, en la cultura.

Según, José-Antonio Merlo-Vega[1], hay diez principios que definen a la Web social:


  1. El navegador como herramienta. La Web social es ante todo Web, por lo que sus sistemas y aplicaciones están asentados en lenguajes de marca. CCS, XHTML o XML son las bases de esta tecnología, por lo que desde cualquier navegador se puede tener acceso a los servicios de la Web 2.0. La nueva Internet no anula a la anterior, sino que la complementa mejorándola, la toma como base y a ella debe lo que es. La etiqueta 2.0 implica una evolución, pero se puede seguir hablando de la Web, sin calificativos, de un desarrollo de Internet, donde las posibilidades para la participación son la principal novedad.
  2. La cooperación como método. El colectivo es importante y la Web social parte de su reconocimiento. Las tecnologías sociales están diseñadas con arquitecturas de la información abiertas, que permiten que las opiniones se sumen y los comportamientos de todos sean tenidos en cuenta. En la nueva Internet se trabaja de forma distribuida, pero a través de relaciones directas, que se reflejan en acciones como la construcción conjunta de contenidos en línea o en la posibilidad de publicar comentarios en páginas ajenas. Es la consideración de la inteligencia colectiva.
  3. La interoperabilidad como fundamento. Las tecnologías de la participación empleadas por la Web social permiten la integración de herramientas. Sistemas de programación como AJAX o los lenguajes de etiquetas ofrecen la posibilidad de compartir códigos, reproducir en webs particulares contenidos externos o establecer interfaces con aplicaciones que se ejecutan en servidores remotos. Las APIs o los widgetsâ o la sindicación son ejemplos de este principio. El uso de protocolos comunes, metadatos normalizados y arquitecturas abiertas explican el éxito incontestable de la Web social.
  4. La sencillez como pauta. La Web social ha simplificado al máximo la publicación de contenidos. La facilidad para crear y mantener blogs o wikis, el desarrollo de favoritos vía web, la difusión de perfiles personales en redes sociales, por mencionar algunos ejemplos, son acciones que requieren escasos conocimientos técnicos. Para compartir archivos, redifundir recursos, filtrar noticias o integrar servicios ajenos en webs propias no es necesario ser un experto. La popularidad de los de los servicios de la Web social se debe en gran medida a la parquedad de los conocimientos requeridos.
  5. El etiquetado como sistema. La información digital presenta la característica de poder incluir datos sobre sí misma. Las herramientas de la Web social emplean las descripciones realizadas por los usuarios, que se intercambian de forma automática, estableciendo redes de términos que llevarán a informaciones similares, con el valor añadido de que el uso generalizado de un término implicará un volumen importante de recursos digitales en cuya descripción se ha empleado. Los esquemas de metadatos y microformatos o la inclusión de etiquetas en las aplicaciones sociales son determinantes para compartir información semántica, lo que equivale a compartir recursos digitales.
  6. La participación como principio. En la Web social la información se comparte. Los datos personales son difundidos en redes sociales. El software social posibilita que se valoren recursos y sean etiquetados en función de la opinión de quienes los emplean. Los sistemas de filtrado permiten que los contenidos considerados interesantes destaquen entre los generados en un periodo de tiempo, en un medio o sobre un tema. Los favoritos compartidos, las compras sociales y los sistemas de valoración ofrecen como resultado que sean los usuarios quienes establezcan la calidad o utilidad de los recursos. Las tecnologías permiten una cooperación que se traduce en la colaboración de los usuarios a través de sus aportaciones, sus conductas y sus opiniones.
  7. La variedad como realización. La Web social no admite límites, ya que existe una gran diversidad de manifestaciones. Servicios de información y aplicaciones informáticas muy diversos pueden ser catalogados como Internet 2.0. Desde la compra de productos en proveedores que tienen en cuenta los gustos, acciones y hábitos de los usuarios, hasta los servicios en los que se puede etiquetar la información, pasando por los servidores de almacenamiento de archivos, en los que los documentos se relacionan independientemente de su origen, todo puede ser clasificado como 2.0. Un servicio de referencia basado en las respuestas de los usuarios es Web social. Una aplicación que permite integrar en una página las noticias de diarios digitales, consultar en la misma el correo electrónico o emplear herramientas ofimáticas, también es Web 2.0.
  8. La personalización como posibilidad. El usuario decide cómo emplear las tecnologías de la participación, qué servicios le son útiles y bajo qué forma y condiciones los va a utilizar. La adaptación de las aplicaciones, el desarrollo de interfaces particulares de herramientas, la utilización de contenidos externos mediante sindicación o a través de la inserción de códigos, el uso de widgetsâ para la integración de recursos informativos externos (mapas, temperatura, diccionarios, noticias, etc.), son distintas piezas que el usuario empleará a partir de su creatividad y sus necesidades. Las tecnologías son las mismas; los servicios, también; los recursos, idénticos, pero el usuario los puede individualizar según su criterio y conveniencia.
  9. La experimentación como norma. Nada es eterno en la Web social. La renovación de los resultados es constante; las actualizaciones, permanentes; las novedades, cotidianas. Se trata de la beta continua, como se suele denominar a esta característica de la Internet 2.0. Las tecnologías avanzan y ofrecen nuevas posibilidades. Los servicios adoptan las novedades tecnológicas y las adaptan a sus objetivos. Los usuarios que emplean la Web social son conscientes de la constante renovación de los recursos y las consiguientes posibilidades de mejora que suponen, así que esperan y asumen los permanentes cambios.
  10. El desinterés como base. El carácter social de la nueva Web también incluye como elemento definitorio la búsqueda del bien común. Las tecnologías son abiertas, al igual que lo son los recursos. Se parte de la ausencia de intención mercantil, de la generosidad o el altruismo en el uso de las aplicaciones, los servicios y las informaciones. Las comunidades de software libre y las iniciativas de acceso abierto a la información científica están en sintonía con el uso compartido de los recursos que posibilitan las tecnologías de la Web social. La Internet 2.0 también tiene una faceta comercial, aunque no suele afectar al usuario general, sino a las empresas que quieren dirigirse a sectores específicos, conocerlos y comunicarse con ellos de forma directa y pertinente.



[1] Notas ThinkEPI2009 . Estrategia y Prospectiva de la Información [http://www.thinkepi.net/las-diez-claves-de-la-web-social]


Características Web Social o Web 2.0
La Web 2.0 es una evolución de la web, una nueva visión ya que el internet de la Web 1.0 trata de páginas estáticas HTML que no eran actualizadas de manera frecuente.
Es la evolución de la web en una plataforma donde los contenidos son compartidos, gestionados, creados y modificados por los usuarios.
El ejemplo de 2.0 por excelencia es Google.
Google comenzó como una aplicación en la Web, nunca se vendió y se entregó como un servicio sin poner ninguna de las “trampas” de la industria del software.Google se apuntó a la mejoría no como Netscape en la web 1.0)
La web 2.0 posee características ya obvias para todos como:
- Web como plataforma, posee un posicionamiento estratégico.
- El usuario controla sus propios datos, posicionamiento del usuario
- Competencias centrales, como: Actualización efectiva, arquitectura de la participación, mezcla de la fuente y transformación de datos
- Aprovecha la inteligencia colectiva
¿Qué es la inteligencia colectiva? La inteligencia colectiva es lo que creamos los usuarios generando contenidos. La contribución de contenidos, interés y dinamismo por parte de los usuarios.
Cada vez creamos más contenidos, blogs, wikis…Se comparten objetos digitales, se etiqueta y se valora (rating) mediante asignación de puntajes. Un ejemplo de inteligencia colectiva será la Wikipedia.
El fundamento de la Web 2.0 es el hiperenlace. Un usuario descubre un contenido, cuelga un enlace para que otros puedan verlo y compartirlo en otro lugar, así sucesivamente. La red de conexiones en la web crece como producto de la interactividad de todos los usuarios.
Las tecnologías donde se apoya la web 2.0 son las redes sociales, los blogs, las wikis y los folcsonomías.
Algunas páginas poseen la idea de que la Web 2.0 es una actitud, no una tecnología. Le inculcan el concepto de long tail acuñado por Chris Anderson para referirse a tipos de negocio y modelos económicos de páginas como Amazon.

Evolución versiones Web


Evolución versiones Web.png


Cuadro comparativo web 1.0 y web 2.0

Cuadro comparativo Web 1.0-Web 2.0.jpg

4. Sistemas de organización de fuentes de información

Los sistemas de organización de fuentes de información se fundamentan en la lógica de la redifusión tradicional y en la emergencia del concepto del “microcontenido” en la Web.
Desde el punto de vista de las publicaciones multimedia en el campo de la Comunicación poseen una importancia esencial, ya que poseen múltiples aplicaciones: desde la centralizada de fuentes de referencia, la diseminación del mensaje y de la información de un medio, o la creación de marca dentro de una estrategia de marketing online.

4.1. Sindicación

El término “sindicación” es un barbarismo tomado del vocablo inglés “syndication”. En español se ha utilizado habitualmente el término “redifusión”, práctica habitual en los medios de comunicación de masas que se refiere a la capacidad de redistribuir unos contenidos (televisivos, radiofónicos, de prensa, etc.) de un medio o productor a otros.
La ventaja de la redifusión o sindicación es que facilita el mantenimiento de determinadas informaciones cuyo coste de producción es alto desde uno o varios productores, pero cuya utilización puede ser aprovechada, en términos de difusión, por muchos otros canales o servicios.
En el caso de la Web, la “sindicación” ha cobrado una especial importancia en los últimos años, gracias, entre otras cuestiones, al desarrollo de una familia de formatos de fuentes web basados en XML, denominados RSS (Really Simple Syndication). Este se utiliza para suministrar a suscriptores de información actualizada frecuentemente.
Actualmente, la mayor parte de los sitios web cuentan con diversas fuentes de sindicación lo que ofrece múltiples posibilidades de seguimiento de su contenido a través de herramientas como agregadores o lectores de alimentación capaces de leer la información o presentarla de muy diversas formas. Como apunta Van deer Vlist (2007) la diferencia entre la sindicación y una página web se puede resumir en:

  • La primera es que en vez de que un usuario tenga que visitar una página para conseguir una actualización, el lector de la alimentación, periódicamente y automáticamente conseguirá los datos.
  • La segunda diferencia es que los datos entregados tienden a contener una gran proporción de información legible por la máquina, el contenido de un documento de alimentación será estructurado en una forma diferente.

La sindicación tiene una serie de ventajas tanto para el autor como para los usuarios. En el caso del autor: facilita la integración de estándares, la suscripción de lectores y la redistribución en otros medios; en el caso de los usuarios lectores: le permite suscribirse y esperar la actualización e integrar contenidos externos en medios propios.

En definitiva, este servicio permite a los usuarios estar al día de sus temas de interés; les permite decidir en qué canales suscribirse de manera gratuita, sin necesidad de navegar ni visitar muchas webs, ya que se obtiene la información directamente. Los agregadores RSS permiten obtener resúmenes de todos los sitios webs que sean del interés del usuario.
En general, la redifusión de contenidos se lleva a cabo a través de dos formatos: RSS y Atom1. Google adoptó Atom en 2004 y le dio notoriedad, pero actualmente impulsa los dos. RSS es anterior y está basado en rdf, el estándar de metadatos del W3C. Apareció en 1997 y su elaboración fue tarea de varias organizaciones que trabajaron de forma dividida (Pilgrim, 2002), circunstancia que explica que hoy convivan siete versiones de RSS, diferentes entre sí: las siglas RSS representan Rdf Site Summary en la versión 0.90, Rich Site Summary en las 0.91–0.94 y 1.0, y Really Simple Syndication en la 2.0. El RSS 2.0 es el estándar. Las fuentes RSS son documentos xml destinados a la distribución de noticias breves. Su estructura es simple. Consta de un nodo primario <channel> con cuatro subnodos obligatorios: <title> (el título del conjunto de noticias o canal), <link> (url del fichero), <description> (una descripción del canal), e <item> (el texto de las noticias). Este último nodo es repetible y se dispone un <item> para cada noticia, y cada una de ellas tiene a su vez los subnodos <title>, <link> y <description>. Tanto <channel> como <item> pueden tener subnodos opcionales, de los que se puede consultar una enumeración completa en la especificación RSS 2.0.



4.2. Microcontenidos

Actualmente se conoce como microcontenido a una pequeña porción de información que posee algún tipo de identificador exclusivo, y que, por la tecnología de soporte, puede ser reutilizado de forma sencilla en otro contexto.
El desarrollo de la web ha facilitado, mediante la evolución y madurez de sus estándares, una creciente modularidad de los elementos de información que la conforman. De esta manera, se facilita que se puedan crear macrocontenidos mediante la agregación y combinación de estas unidades menores.
Anil Dash define microcontenido como una "información publicada en una forma corta". Como señala Van deer Vlist (2007)
Cada pieza de material sindicado es un pequeño, relativamente autónomo, pedazo de información del "tamaño de un meme" (meme es una analogía cultural de un gen, una unidad que puede ser propagada en el ambiente de la evolución). En la práctica esto usualmente significa una pieza de contenido HTML legible por los humanos (o un enlace a uno) junto con una cantidad significante de metadatos, esto es, datos describiendo el contenido expresado en una forma legible para la máquina. Esto suele ser lo que vemos en blogs y los sitios orientados a noticias, muchos de los pedazos pequeños de información. En el contexto de la Web, la noción de que algo es autónomo es limitada, ya que el valor real de la Web viene como resultado de la interconectividad entre pedazos de datos. Pero hay ventajas significativas que se ganarán de manejar la información en el nivel de microcontenido.


Tipología de las tagsLa manera en que un recurso de información es descrito puede variar terriblemente de un usuario a otro, sin embargo podemos agrupar las etiquetas que utiliza siguiendo un criterio de los objetivos que pretende el usuario a la hora de utilizarlas de una u otra forma. Así, podemos clasificar las etiquetas usadas en:
■Basadas en el contenido. Etiquetas que describen el contenido de un objeto o las categorías a las que pertenece. Sería, por ejemplo, el caso de etiquetas como código abierto, coches, honda, spiderman, árbol, etc.
■Basadas en el contexto. Etiquetas que otorgan contexto a un objeto informativo que describiría dónde fue creado o guardado. Sería el caso de fórmulas como Nueva York, Estatua de la Libertad, Septiembre 2006.
■Subjetivas. Expresan la opinión del usuario y sus emociones ante lo descrito. Por ejemplo divertido, aburrido, malo, etc.
■De atributos. Son etiquetas que son inherentes a un objeto pero que no son derivadas del contenido. Por ejemplo, el blog de Enrique Dans, Tomàs Baiget, etc-
■Organizacionales. Son etiquetas que describen materiales personales de los usuarios (Mis fotos, trabajo, etc.) o que pueden servir como recordatorios de ciertas tareas (Para_leer, para_comentar, etc).

4.3. Sistemas y aplicaciones

El alimentador

El alimentador es la aplicación que se encarga de suministrar los datos de sindicación en un sitio web. Se trata de un documento XML que contiene pedazos de información estructurados y alguna información (metainformación) sobre sí mismo (cómo opera, qué contiene...) Estos pedazos o fragmentos de información se van actualizando a medida que entra información en el sistema en sentido temporal inverso en una especie de cola de información (lo más actual aparece arriba y va empujando hacia abajo a lo más antiguo)
Existen actualmente distintos formatos de sindicación: RSS1.0, RSS 2.0, Atom... si bien todos funcionan de forma relativamente similar. En este link se explican las diferencias entre los tipos de RSS y se amplía el concepto RSS.

El agregador

Para leer la información suministrada por el alimentador se utilizan habitualmente programas agregadores (software que permite realizada de forma sencilla la suscripción a esta fuentes de noticias en formatos RSS, ATOM y otros derivados de XML/RDF) cuya nómina es especialmente extensa (ver directorio en Google) si bien hay algunos, como Bloglines o Google Reader, que han tenido especialmente fortuna.
No obstante, en los últimos años los navegadores han ido incorporando esta funcionalidad de tal forma que las versiones más recientes incorporan un sistema de gestión de fuentes. Incluso, algunos navegadores como Flock (Mozilla) han extendido este concepto para integrar la gestión de fuentes de redes sociales.
Por otra parte, han aparecido servicios web denominados Webtop o escritorios virtuales basados en la lógica de los agregadores. Estos servicios permite organizar visualmente, a través de solapas o pestañas, numerosas fuentes de noticias, manejando en un entorno gráfico widgets y módulos desplazables, y que pueden ser altamente personalizados por el usuario.
Entre estos, se encuentran Netvibes, iGoogle, MSN Live, Inicio.com, PageFlakes, etc.
(iGoogle dejará de estar disponible a partir del 1 de noviembre de 2013. Según la compañía, la utilidad de esta herramienta se ha visto reducida con la aparición de nuevas aplicaciones que se ejecutan en plataformas como Google Chrome o Android).

El funcionamiento básico entre un alimentador y un agregador es el siguiente. Cuando un cliente se suscribe a un alimentador (cargamos una fuente de sindicación) de forma periódica (normalmente una hora, 3600 segundos, pero puede ajustarse ese valor) el cliente revisita el alimentador de forma automática y comprueba si se han producido cambios con respecto a la información de la que dispone [Este proceso se conoce como polling] En ese caso, carga los nuevos datos y actualiza el lector.

4.4. Microformatos

Los microformatos (no confundirlos con los microcontenidos) son otra forma de reutilizar contenidos, ya que permiten, de una manera sencilla, agregar significado semántico a segmentos de información incluida en páginas web (en lenguajes como HTML, XHTML) de forma que pueda ser indexada, guardada, referenciada, reusada o combinada.
El uso de los microformatos dentro del (X)HTML permite agregar más información y significado a los datos que luego puede ser utilizado por aplicaciones como por ejemplo buscadores o agregadores de contenidos.(AAVV, 2009) Los microformatos actualmente aprobados son fragmentos de código (como decíamos en HTML o XHML) a los que se les aplica un significado estandarizado y compartido mediante metadatos, de tal manera que, de forma simple, podamos definir el sentido que posee una determinada porción de código, es decir, qué información contiene. Por ejemplo, podemos definir una serie de etiquetas (class, id) para definir la información de contacto (la tarjeta de visita).
Se trata pues de un fragmento de información que, por un lado, recibe el tratamiento preferencial que los robots y buscadores dan a los metadatos sobre el resto de la información presente en la misma página web. Pero, al mismo tiempo puede ser visto y utilizado por el usuario de la página en su provecho (los metadatos clásicos se colocan en la cabecera de las webs, entre las etiquetas <head></head>, donde son localizadas por los robots pero invisibles para los visitantes, que sólo pueden verlos si consultan el código fuente o instalan aplicaciones especiales que la muestren).

¿Qué ventajas plantean los microformatos?

Sé podría decir que los microformatos, una vez creados y establecidos, son una forma sencilla de compartir información con un alto nivel de significado y se presentan como una solución a la automatización de los procesos de creación y, sobre todo, de interpretación de los documentos.

Al tratarse de un modelo construido con herramientas existentes no es necesario realizar grandes modificaciones en los documentos para adaptarlos, simplemente añadir los nuevos atributos a las estructuras existentes, lo cuál nos permite una aplicación inmediata sin necesidad de herramientas especiales. Esto facilita el desarrollo y creación de nuevos microformatos con un coste cercano a cero.
La utilidad de los microformatos se halla tanto en el uso que hacen los usuarios como los buscadores, tal como nos señala Alejandro Bravo (Bravo García, 2005)
  • Interpretación del microformato por una persona.
  • Interpretación del microformato por un agente de usuario (un buscador, por ejemplo) .

Actualmente la lista de microformatos aprobados y habituales de uso recoge un amplio número, que va desde marcado semántico de eventos (hCalendar), información de contacto (hCard), relaciones sociales mediante enlaces (XFN, se usa, por ejemplo, en Wordpress cuando creamos un enlace), información del curriculum personal (hResume), críticas de artículos (hReview), o marcado de enlaces poco interesantes (rel-nofollow, interesante cuando se cita un enlace criticable y se desea indica a los navegadores que no realicen su seguimiento)

En la página “oficial” sobre microformatos, Microformats.org, podemos localizar amplia información sobre el uso de estos, y acceder a distintas herramientas que nos facilitan su elaboración.
Ampliación con ejemplos:

Los microformatos son porciones de código (X)HTML estándar que aporta información procesable para las máquinas a través de los atributos (class, rel, rev) del lenguaje, como definir los datos de una persona, eventos, localizaciones, ...
Por ejemplo, vCard es un formato estándar para el intercambio de información personal, usado por las agendas en fichas de contacto. Supongamos que en la web queremos mostrar los datos del autor de la misma, sería algo así:

<span style="vertical-align: baseline;"><span style="color: #000000;"><span style="font-size: 10.5pt;"><div></span></span></span>

<span style="vertical-align: baseline;"><span style="color: #000000;"><span style="font-size: 10.5pt;"> <p>Arume Desenvolvementos Informáticos</p></span></span></span>

que un trozo de código con varios párrafos. Veamos ahora como implementar el microformato hCard que representa esta información bajo el estándar vCard
<span style="vertical-align: baseline;"><span style="color: #000000;"><span style="font-size: 10.5pt;"><div class="vcard"></span></span></span>

<span style="vertical-align: baseline;"><span style="color: #000000;"><span style="font-size: 10.5pt;"> <p class="fn org">Arume Desenvolvementos Informáticos</p></span></span></span>

<span style="vertical-align: baseline;"><span style="color: #000000;"><span style="font-size: 10.5pt;"> <p class="adr"><span class="street-address">Félix Acevedo 13</span>, <span class="extended-address">2º B</span><br /></span></span></span>

<span style="vertical-align: baseline;"><span style="color: #000000;"><span style="font-size: 10.5pt;"> <span class="postal-code">15008</span>, <span class="locality">A Coruña</span></p></span></span></span>

<span style="vertical-align: baseline;"><span style="color: #000000;"><span style="font-size: 10.5pt;"> <p>Teléfono <span class="tel">625 519 694</span></p></span></span></span>

<span style="vertical-align: baseline;"><span style="color: #000000;"><span style="font-size: 10.5pt;"><div></span></span></span>
En este trozo de código el usuario no ve modificada la información, sin embargo, los buscadores podrán reconocer que el código aquí representado pertenece a la información personal de la empresa.

MICROFROMATOS EXISTENTES

  • hCard: (compatible con vCard) como ya vimos aporta información de contacto sobre personas, compañías y organizaciones.
  • hCalendar: (compatible con iCalendar) aporta información sobre eventos.
  • rel-license: informa sobre una licencia de uso.
  • rel-nofollow: indica a recolectores que no deben seguir un enlace.
  • rel-tag: indica que un enlace es una etiqueta (tag).
  • XFN: indica la relación humana existente entre los elementos marcados con rel="valor" (friend, co-worker,parent, ...).
  • XMDP: formato simple para definir los metadatos HTML fácil de leer y escribir a los seres humanos y máquinas.
  • XOXO: refuerza mediante atributos la definición de una estructura de árbol.
  • VoteLinks: usado únicamente para marcar votaciones.
Según microformats.org, la comunidad que valida las especificaciones de los microformatos, estas especificaciones son las que actualmente están concluidas, aunque se está trabajando en otras como son:
  • hResume: currículums.
  • geo: coordenadas geográficas.
  • hAtom: sindicaciones.
  • hRecipe: recetas de cocina.
La técnica de intercambio de información por microformatos puede tener un éxito relativo debido a las siguientes razones:

  • La creación de un microformato es simple y no necesita grandes consensos entre organizaciones.
  • La definición y codificación de un microformato es sencillo.
  • Su implementación es natural, lo que significa que cuando se implementa un microformato en un documento no se está forzando el lenguaje de manera que pudiera crear problemas de visualización o de comprensión del código.

Otras definiciones de interés

Vocabularios controlados
Los vocabularios controlados son vocabularios pensados para evitar la reiteración de términos.La definición de los vocabularios controlados en el entorno digital tiene como prioridad la mejora de la navegación y el desarrollo de sistemas de búsqueda basados en la exploración y en la recuperación. Las definiciones que vinculan este tipo de vocabularios al entorno corporativo destacan el valor estratégico de éstos en áreas como la gestión del capital intelectual y, en general, del conocimiento.Los vocabularios controlados son principalmente de cuatro tipos[1]: las listas, los anillos de sinónimos, las taxonomías y los tesauros. La diferencia entre los cuatro tipos de vocabularios controlados está determinada por la menor o mayor complejidad estructural que presentan. Por un lado, los listados y los anillos de sinónimos se limitan a incorporar la relación de equivalencia; por el otro, las taxonomías incorporan relaciones de jerarquía y los tesaurus incorporan relaciones de equivalencia, jerarquía y asociativas.
Vocabularios no controlados
A diferencia de los vocabularios controlados, los vocabularios no controlados basan esa falta de control en la descentralización. Es decir, no hay control porque no hay un grupo de especialistas que se encarguen de normalizar esa falta de jerarquía, de control de sinonimia y de la precisión semántica.
Definición de taxonomía
Una taxonomía es un conjunto organizado de términos utilizado para organizar información y pensado principalmente para poder navegar por él. En otras palabras, una taxonomía simplemente exige que sus componentes estén organizados de manera que se puedan "recorrer". Su rasgo fundamental y definitorio es, por tanto, su finalidad de exploración. Son usadas, por ejemplo, para la categorización y la organización de la información en sitios web.
La definición de taxonomía en el entorno digital tiene como prioridad la mejora de la navegación y el desarrollo de sistemas de búsqueda basados en la exploración y en la recuperación. Las definiciones que vinculan las taxonomías al entorno corporativo destacan su valor estratégico en áreas como la gestión del capital intelectual y, en general, del conocimiento.

Definición de tesauro
Un tesauro es un conjunto de palabras con términos equivalentes explícitamente identificados y con las posibles ambigüedades eliminadas. Este conjunto de términos incluye también normalmente relaciones semánticas de jerarquía y asociativas.
Es, por tanto, un conjunto estructurado de términos seleccionados por su capacidad de facilitar la descripción de un dominio y por armonizar, a su vez, la comunicación y el tratamiento de la información de que trata. Se trata de un instrumento de control terminológico que permite convertir el lenguaje natural de los documentos en un vocabulario controlado, ya que representa, de manera unívoca, el contenido de estos, con el fin de servir tanto para la indexación, como para la recuperación de los documentos.

A continuación, mostramos un ejemplo de uso del tesauro. En concreto, del tesauro de la UNESCO:





Definición de ontología
Una ontología es la especificación de una conceptualización compartida, es decir, una descripción formal de los conceptos y relaciones que intervienen en un dominio. La definición más aceptada de ontología en el ámbito de la representación del conocimiento (y por tanto, de la web semántica) es la que aportó Gruber[1]: "an ontology is a specification of a conceptualization" (una ontología es una especificación de una conceptualización). En lugar de basarse en la teoría conjuntos como las folksonomías, las ontologías se basan en la teoría de grafos. A los efectos de este documento, las únicas ontologías que se van a considerar son aquellas que pueden expresarse utilizando OWL, el lenguaje definido por el W3C para la formalización de ontologías en la web[1]. Una característica de OWL que va a resultar de gran importancia es la asignación a cada recurso de un identificador universal.

Referencias



Nuevas perspectivas y horizontes

Los nuevos medios conllevan novedosos desafíos a los cuales hay que hacer frente. Las empresas se exponen a las siguientes vicisitudes:
- Se debe recibir y conceder más información y de mayor especialización, lo que supone un incremento de filtros humanos y tecnológicos en la selección de la información, para otorgar cierta calidad y cantidad a los contenidos.
- En el “big date” nos cuestionamos la finalidad de la exhaustividad
- La exhaustividad no quiere dejar de lado la llamada “señal débil”
- Las empresas deben hacer un seguimiento detallado de lo que precisan sus potenciales clientes.
- Flexibilizar comercialmente la actividad de los proveedores de productos multimedia y multi-soporte.
- Prioriza y jerarquiza la información: Necesidad de ofrecer servicios a la medida del solicitante.
Para poder dar cobertura de calidad y profesional a las nuevas características que el nuevo soporte multimedia presenta, el profesional de comunicación que pretenda estar al día de dichas necesidades, debe responder a una serie de circunstancias:

- Debe tener una formación universitaria en periodismo y comunicación multimedia
- Dominio de dos o tres idiomas
- Dominio de paquetes de ofimática, navegación y búsqueda avanzada.
- Tener soltura y experiencia en la gestión de contenidos digitales
- Conocimiento de edición de noticias en línea
- Manejo básico tanto de fotografía, audio, streaming y video.
- Uso de sistemas de edición y actualización

El periodismo en su base teórica sigue siendo el mismo. Las funciones y responsabilidades no han cambiado.

Según la periodista Sandra Crucianelli, la práctica constante y la curiosidad deben ser las máximas para todo periódico digital.
Dicha periodista facilita una serie de consejos para todo profesional que se desee iniciar en la gestión y control de un medio en Internet:

- Información diaria en medios digitales para conocer las últimas tendencias
- Abrir un blog e ir practicando
- Creación de cuentas sociales
- Interactuación con las distintas comunidades
- Uso de cámara digital para poder tomar fotos y videos
- Ante todo: Mucha práctica
Los medios están modificando su original estructura lo que conlleva a una regeneración del propio periodista.



[[#_ftnref1|[1]]Para profundizar, se recomienda también leer la excelente recensión en el texto de Koldo Meso: “Introducción al Ciberperiodismo” (2006) especialmente en los capítulos 2, 3 y 4.

Origen y definición de la Web 3.0

La primera referencia al futuro de la Web, Web 3.0 –Web Semántica-, se acuñó en 2011 al aparecer publicado en un artículo científico de la American Scientific y a su autor, Tim Berners-Lee, apuntando a un entorno online idílico donde las máquinas pueden interpretar páginas web de la misma forma que los humanos.

La definición concreta de algo que todavía no existe, tiene diferentes versiones. Mientras unos expertos aseguran que será una unión coherente entre Inteligencia Artificial y Web, otros apuntan a una progresión de Internet tal como lo conocemos.

Así se entiende la Web 3.0

Un sinónimo de Web 3.0 o concepto a través del que gira esta nueva concepción de la Red, es la Web Semántica. Esta consiste en una nueva concepción del entorno web para un uso más natural por parte de los usuarios, desapareciendo la búsqueda por palabras clave para dar paso a la búsqueda por necesidades y en forma de expresión humana natural. Se trata de utilizar un lenguaje similar al que se usa en la vida cotidiana, lo que conlleva además la aparición de software que permita codificar correctamente esta información para devolver resultados lo más personalizados posible.

Otra de las características apuntadas para esta Web 3.0 es la creación de un gran base de datos para dotar de nuevas posibilidades a los buscadores, enfocadas a la Inteligencia Artificial (que haría referencia al correcto funcionamiento de esta Web Semántica a través de una interpretación inteligente de datos) o la geolocalización.

La evolución de la Web 2.0 ha hecho posible que se den más pistas sobre lo que se considera Web 3.0, siempre que se vea como una verdadera revolución, aunque lo más correcto sea verlo como una evolución, un lugar al que se llegará con el continuo cambio presentado por la Web 2.0. El surgimiento de las redes sociales, haciendo una Red cada vez más social y persona, así como la creación de páginas web cada vez más dinámicas (y por tanto menos estáticas), aportando soluciones cada vez más personales (listas de deseos, sugerencias de compra, ofertas personalizadas, etc.), apuntan a que el cambio ya está patente y que la personalización de los contenidos es un hecho.

La visión más futurista y que llega del hecho de que cada vez existan más posibilidades de conexión en cuanto a dispositivos disponibles, es la de la conexión desde cualquier soporte dentro del hogar. Espejos, electrodomésticos... Todo ello para ofrecer un contenido personalizable, capaz de ofrecerse con la interacción de diferentes páginas web (portales que se conectan entre ellos para ofrecer un contenido a medida).

El futuro de la web

Semántica o no y 3.0 o no, el futuro de la web trata de predecirse continuamente, incluso de la mano de los expertos creadores de la Worl Wide Web y de este concepto de Web Semántica, como Tim Berners-Lee. En 2002 apuntaba a un punto de eficiencia para la Web en el momento en que se convirtiese en el soporte para el intercambio de datos, compartidos y procesados por herramientas automatizadas y personas.
También existe debate sobre el futuro de los buscadores. Mientras Nicholas Carr pronostica un fin por obsolescencia, Tim Berners-Lee, con una visión más integradora, que opta por la suma de funciones más que por la desaparición.

Otra de las tendencias importantes parece ser la Web 3D, con ejemplos como Google Earth, que permiten ofrecer una experiencia más real a los usuarios