A la hora de reflexionar sobre la sobreinformación en Internet, conviene aclarar alguno de los criterios que rigen el posicionamiento de las webs en los buscadores y aportar medidas para mejorar la accesibilidad de información en la red. En el ámbito digital, posicionar un sitio consiste en optimizarlo para que aparezca en las primeras posiciones de las páginas de resultados de los motores de búsqueda. Así mismo, podemos definir posicionamiento web como “el conjunto de procedimientos y técnicas que tienen como finalidad dotar a un sitio o a una página web de la máxima visibilidad en Internet”, según Codina y Marcos.
Estos mismos autores señalan que en la actualidad existen dos factores fundamentales respecto al posicionamiento: el uso de los motores de búsqueda como fuente de información privilegiada sobre la Web por parte de los internautas y el hecho de que los usuarios de motores de búsqueda apenas consultan más allá de los primeros veinte o treinta resultados, con una abrumadora mayoría que únicamente revisa los diez primeros.
Cuando nos proponemos analizar el posicionamiento de un sitio lo hacemos a través de una o más palabras que nos sirven para comprobar, por ejemplo, cuáles son los sitios mejor situados. A estas palabras las denominamos palabras clave.
Como segundo criterio, los metadatos son datos sobre sitios o sobre páginas web que ayudan a su indización tanto como a su presentación (ranking) en las páginas de resultados de los motores. Por tanto, los metadatos ayudan a la visibilidad de los sitios. Pero sucede que algunos elementos que técnicamente son metadatos son ignorados por los motores de búsqueda; mientras que elementos de sitios web que, en rigor no son metadatos, los motores de búsqueda los utilizan de facto como tales.
En tercer lugar, consideremos la “visibilidad” y PageRank. El primero es el término acuñado, por los ingenieros de Google para referirse a una medida que indica el número de enlaces que un sitio web recibe de otros sitios y la calidad de los mismos esto es, si esos sitios tienen a su vez una alta popularidad hipertextual, es decir, si esos sitios a su vez son muy enlazados. La medida numérica que ha establecido Google relacionada con la visibilidad o popularidad hipertextual se denomina PageRank. El PageRank de un sitio es un número que será mayor cuantos más enlaces reciba de páginas web que, a su vez, tengan un buen PageRank.
En cuarto lugar, la “relevancia” es la capacidad que tiene un documento (un sitio o una página web) de satisfacer una necesidad de información de un usuario. Es decir, el grado de utilidad de un documento en relación con una pregunta concreta. Los motores de búsqueda ordenan los documentos presentados en la página de resultados utilizando algoritmos que tratan de inferir la relevancia de cada página en relación con cada pregunta, de modo que entregan los resultados ordenados por el grado de probabilidad de resultar útiles para la necesidad de información expresada por el usuario.
La “popularidad” es el número de visitas que recibe un sitio o un dominio y, según algunas versiones, incluye también el número de páginas servidas por dicho sitio o dominio. Una de las medidas de popularidad más conocidas es Traffic rank, que determina Alexa. Este cálculo combina tanto el número de usuarios que visitan un mismo dominio web como el número de páginas vistas por los usuarios en ese dominio.
El “anclaje” es el punto de inicio o de destino de un enlace. Este punto de inicio puede ser un texto (ya sea una sola palabra o una frase) o una imagen. En posicionamiento es importante tener presente el concepto de anclaje (y no sólo el de enlace) porque el texto que forma parte de las etiquetas de los anclajes tiene influencia en la visibilidad de un sitio ya que los motores de búsqueda lo interpretan como una forma de metadatos.
Finalmente, los “enlaces recibidos, de salida e internos” son relevantes, pues un enlace es la unión entre dos secciones de un mismo sitio web o entre dos sitios web y en posicionamiento los enlaces juegan un papel muy importante, ya que los motores de búsqueda utilizan el análisis de enlaces (o análisis hipertextual) para tratar de inferir no solamente los temas, sino la calidad o la posible condición de “autoridad” de un sitio web.
Hay que tener en cuenta también que la rapidez de distribución vía Internet es un factor determinante para el crecimiento exponencial de la información en la red. Tal cantidad de información, en palabras del premio Nobel de la Paz de 1986 Elie Wiesel, supone que "estar sobreinformado es como estar mal informado". Ante esta confusión y falta de claridad conviene por tanto la utilización de algunas herramientas o habilidades en la búsqueda, selección, manejo y procesamiento de la información.
En primer lugar, el consumidor de información deberá ser consciente de la hiperinformación existente y deberá tener el criterio necesario para adoptar una actitud crítica con la información incompleta, errónea o con falta de estructura, poniendo en delante exclusivamente la información que se traduzca más fácilmente en conocimiento.
El usuario crítico será aquel capaz de evaluar y ponderar la calidad de la información y seleccionar las fuentes de información apropiadas. Para acceder a la información deseada, mejorando su accesibilidad y distribución, se utilizan los motores de búsqueda, los directorios y las páginas de enlace por lo que incidir en la creación de bases de datos o catálogos con la información, presentar listas de sitios con información relevante y afinar en la elección de palabras son parte de las soluciones en este ámbito. Es necesario además que se multipliquen los esfuerzos en formación de usuarios de manera urgente en lo orientado a tener claros los objetivos de la búsqueda definiendo qué información va a ser más importante para lograr estos objetivos para acotar cuales son las mejores fuentes de información.
La interacción a la hora de compartir formación es fundamental: la puesta en común de las experiencias de toda la comunidad digital durante el proceso de búsqueda de información gracias al uso de distintas técnicas como pueden ser los “tags”, la creación de perfiles de usuario internauta o consumidor. Así sitios como Amazon ofrecen ofertas “bundle” al ir a comprar un libro y nos señala otros productos que han comprado la gente que se ha llevado ese mismo libro, o programas como Yoono nos permiten ver que gente visita las mismas páginas que yo, las páginas o contenido de interés basándose en nuestro patrón de navegación y de “tagging”. Se consigue disminuir la talla relativa de esta información y disminuir el proceso de búsqueda de información, limitando el “ruido” de páginas a interés reducido.
Señalemos a continuación algunos casos para ilustrar el problema de la maldad o bondad de las informaciones en la red: busquemos información sobre el pintor Francisco de Goya en la red e introduzcamos en el buscador de Google la palabra “Goya”. No considerando la opción de Wikipedia la segunda entrada corresponde a la página oficial de los premios Goya del cine español.
Acudamos pues a la tercera, en la que se anuncia una biografía del pintor: http://www.imageone.com/goya/index1.html En cuanto al sitio y la información, la página muestra un breve texto con dos pequeñas imágenes del pintor (de carácter decorativo), no contiene ningún enlace a otras páginas de interés, no especifica quien es su autor y no se incluye fecha de creación, revisión o actualización. No aporta documentación ni bibliografía, es poco precisa y sin información original ni resúmenes ni metainformación. Estéticamente hablando, resulta una página pobre. A la luz de estos datos, podemos concluir en la baja calidad tanto del sitio como de la información que en él se contiene.
Sin cambiar el buscador ni acudir a bases de datos o textos académicos para no introducir criterios diferentes en la comparación, acudamos a las referencias siguientes, entre las que nos encontramos con la página http://www.artehistoria.jcyl.es/genios/pintores/2085.htm, en la que al aplicar los mismos criterios que en el ejemplo anterior llegamos a la conclusión de estar ante una mejor información que en el caso anterior. La cantidad y calidad de enlaces, la abundancia de datos contrastables y verificables a través de hipertexto, el uso de imagen y vídeo como elementos de apoyo, la autoría del texto y el aporte de documentación extra nos lleva a la conclusión de estar si no ante la mejor de las fuentes de información sobre el pintor aragonés al menos sí ante una mejor información que en la página anterior.
La sobreinformación como mecanismo de censura
Ignacio Ramonet (ex director de Le Monde Diplomatique) habla de “la censura democrática” y explica el término de la siguiente manera: “tenemos la idea de que la censura tiene que ver con la amputación o con el recorte pero en el contexto presente la censura funciona mediante la sobreinformación en un contexto de tiempo real, de información urgente, que no te da tiempo para saber distinguir entre lo que vale la pena y la que no”. Esta falta de tiempo a la hora de valorar las fuentes producto de la sobreinformación, conlleva una relajación intelectual y la adopción en muchos casos de hábitos basados en la utilización de atajos a la hora de recabar información, lo que pudiera significar un cierto modo de censura producto más del sistema en sí mismo que de alguna intencionalidad programada como en el caso de la definición clásica de censura como falta de información. El hecho de que exista tanta información, no nos hace darnos cuenta precisamente de la que falta, y en esto se basa el nuevo concepto de censura por desinformación.
A la hora de ejemplificar en un apartado anterior la calidad de la información y siguiendo a los profesores Salvador Oliván, Angós Ullate y Fernández Ruiz, hemos especificado alguno de los criterios para testar tanto la calidad de páginas web como de sus contenidos y que resumimos en la siguiente enumeración: autor (tanto del texto como de la propia web, si fueran diferentes) como fuente de autoridad, mantenimiento, fechas de creación; revisión y última actualización, objetivo y audiencia, falta de sesgo, calidad de la escritura, pertinencia, metainformación, precisión y exactitud de los contenidos, existencia de enlaces a otros sitios, diseño y estructura, navegación interna, estabilidad, facilidad de uso, ilustraciones y gráficos, uso de software adicional y utilización de diferentes formatos.