TECNOLOGÍA Y COMUNICACIÓN
TECNOLOGÍA Y COMUNICACIÓN
Wikipedia: la gestión del saber colectivo

Por Gonzalo Andrés (*)
Wikipedia se sustenta en un supuesto de igualdad basado en que todos puedan crear o modificar los artículos. En su portada se autodefine como una enciclopedia colaborativa escrita por voluntarios. Es decir, permite que los lectores no solamente lean las entradas sino que también las escriban. Este ambicioso proyecto fue impulsado por Jimmy Wales y Larry Sanger el 15 de enero de 2001. Con los años se fueron sumando versiones en distintos idiomas y numerosos colaboradores de todo el mundo. Lentamente ha logrado convertirse en el compendio del saber colectivo: según el propio sitio, en la versión en español diariamente se crean más de 400 artículos, componiendo un total de alrededor de 1.300.000 artículos, anexos y categorías.
Ahora bien, luego de conseguir una multitud de colaboradores, el desafío del proyecto fue gestionar sus aportes. El crecimiento exponencial del proyecto dio lugar a la conformación de la Fundación Wikimedia, una organización destinada a la búsqueda de financiamiento y a la formación de consenso entre los editores y colaboradores.
En esta enciclopedia, la multitud construye colaborativamente el saber colectivo. Lo cual impulsa, desde un punto de vista, una cierta apertura para la libertad de expresión y participación en la red. De una manera que, quizás, constituya el caso más descriptivo de las potencialidades y dificultades que devienen de las prácticas colaborativas que habilitan las tecnologías digitales. En otras palabras: conseguir la neutralidad, fiabilidad y credibilidad de los artículos requiere de una gestión tecnocrática, lo cual exige la resolución de ciertos dilemas éticos, tecnológicos y epistemológicos.
La neutralidad como norma
La principal característica de la enciclopedia es que los artículos son escritos por los usuarios registrados allí. Es decir, permite que cualquier persona participe en su construcción, lo cual genera cierta empatía con los internautas. Sin embargo, también produce cierta incertidumbre en cuanto a la veracidad y exactitud de lo publicado. En reiteradas ocasiones se han planteado dudas sobre el hecho de que muchos de los colaboradores no sean especialistas en el tema sobre el cual están escribiendo y, de esta forma, involuntariamente pueden agregar información errónea o borrar la correcta. Esta situación da lugar a que esta enciclopedia tenga cierto rechazo entre los docentes. Más aún si se tiene en cuenta que los estudiantes pueden realizar un trabajo a partir de copiar y pegar su contenido sin reflexionar sobre ello o sin previa revisión de las fuentes.
De todos modos, la Fundación Wikimedia desde los inicios ha diagramado estrategias que disminuyan las dudas provocadas sobre la rigurosidad de lo publicado. Para ello, implementó un sofisticado entramado de normativas, controles técnicos y evaluaciones institucionales. Los administradores de la enciclopedia exigen que los colaboradores eviten sus opiniones personales sobre los temas y que la información aportada sea verificada y aceptada por la mayoría. También se pide que se publiquen los datos conocidos y aceptados. A su vez, la enciclopedia destina un lugar especial dedicado a exponer las discrepancias y los aspectos controversiales de los artículos. Esto es, se habilita un espacio para el disenso por fuera de las entradas hasta que las controversias sean resueltas por una comisión de expertos.
Una de las normativas de edición aclara: “Nuestros artículos presentan la información desde un punto de vista neutral y tienen referencias para verificarlo. Hay mucha gente mejorando Wikipedia constantemente, con cientos de ediciones por hora. Las ediciones que consisten en vandalismo o disparates son revertidas rápidamente”. Esta regla del punto de vista neutral constituye una norma ética que brega por el respecto de las diferentes opiniones.
Ahora bien, ¿cómo se consigue el “punto de vista neutral”? ¿Quién define la neutralidad? En este caso, a los fines de evitar las confrontaciones sobre determinados temas, la neutralidad es entendida como la “interpretación compartida por la mayoría”. Es decir, si varias personas creen que algo es cierto, entonces para Wikipedia también lo es.
Este procedimiento generó debates entre los administradores del proyecto. Algunos proponían incluir en cada entrada las controversias existentes sobre la temática, en vez de presentar la información mayoritariamente aceptada. En efecto, puede entenderse que el principio de neutralidad obtura las diferencias de puntos de vista, tiende a la homogeneidad de opiniones y desaliente las interpretaciones discordantes.
En fin, para la ardua tarea de arbitrar los disensos, Wikipedia estableció un sistema tecnocrático que regula las creencias y los valores socialmente aceptados. De modo que el principio del punto de vista neutral devino una guía para la presentación de la información y la construcción de consensos sobre temas controversiales.
Construcción socio- tecnológica de la verdad
Además de gestionar la neutralidad, la enciclopedia colaborativa tiene que garantizar la fiabilidad de la información. Para ello, conformó un complejo sistema socio-técnico dedicado a evaluar la fiabilidad y verificabilidad de los aportes de los usuarios.
Primeramente, el sistema está diseñado para conocer identidad de los colaboradores: en la página “historial” de cada entrada hay una lista de los nombres de usuarios y las direcciones IP de los aportantes. Asimismo, le otorga un poder escaso a los usuarios anónimos, que son controlados por aquellos que tienen un nivel de permisos superiores. Esto genera que exista un grupo de wikipedistas más activos que se dedican no sólo a crear entradas sino también a corroborar los aportes de los usuarios poco frecuentes.
Pero, fundamentalmente, los que se dedican a la tarea de edición y corrección son bots. ¿Qué es eso? Es un programa informático, tipo robot, que imita el comportamiento humano. Su función es colaborar de forma automatizada con las actividades de edición y redacción de entradas. Los bots rastrean y chequean los datos introducidos por los usuarios de carne y hueso. Los más conocidos se llaman RamBot, SieBot y BOTella, pero hay muchos más dedicados a tareas repetitivas de corrección.
En lugar de recurrir a expertos para garantizar la fiabilidad y veracidad de sus artículos, los administradores apostaron por robustecer su sistema socio-técnico de controles mutuos de creación y edición de contenido. De esta forma, se aseguran la fiabilidad de la información publicada. De hecho, la revista científica inglesa Nature publicó en 2005 las conclusiones de un estudio que aseguraba que la información de Wikipedia es “casi igual de precisa en temas científicos” como la Enciclopedia Británica. Tras comparar 42 artículos científicos de ambas publicaciones, los investigadores concluyeron que eran prácticamente iguales.
Pero los bots no sólo editan entradas sino que también las crean. Buscan contenido en sitios web y bases de datos y lo convierten en artículos de enciclopedia, que luego son revisados por humanos. En otras palabras: los robots saben encontrar, corroborar y organizar la información en formato de artículo. Tanto es así que desde 2003 su actividad ha ido creciendo y actualmente casi la mitad de los artículos de la enciclopedia fueron confeccionados por bots.
Con todo, Wikipedia entiende por verdadero aquello que es narrado con registro neutral, con datos verificables y mediante el trabajo conjunto entre personas y programas informáticos. La gestión de la multitud requiere de un entramado socio-técnico que busca el consenso epistemológico entre cientos de bots, miles de editores y millones de lectores. Esta situación constituye un hecho sin precedentes en la historia de la humanidad: el saber colectivo se construye a partir la colaboración humano-máquina.
(*) Lic. en Comunicación Social (Uner). Becario doctoral de Conicet. En Twitter: @gonza_andres
La gestión de la multitud requiere de un entramado socio-técnico que busca el consenso epistemológico entre cientos de bots, miles de editores y millones de lectores.
Conseguir la neutralidad, fiabilidad y credibilidad de los artículos requiere de una gestión tecnocrática, lo cual exige la resolución de ciertos dilemas éticos, tecnológicos y epistemológicos.