FuturICT e Internet: dos modelos predictivos y gnoseológicos
2(Este trabajo es un comentario sobre el artículo de David Weinberger “Simular el planeta en tiempo real” publicado en el número 425 (febrero 2012) de Investigación y Ciencia.)
Una simulación es una construcción artificial que pretende reproducir algún comportamiento externo a la propia simulación. Hoy en día es frecuente el uso de simulaciones informáticas para reproducir diversos fenómenos tanto físicos como sociales: el comportamiento de la atmósfera, la tectónica de placas o los flujos migratorios. Sin embargo el proyecto de Dirk Helbing, titular de la cátedra de sociología de la Escuela Politécnica Federal de Zúrich, va más allá, pretende construir un ordenador que simulase el mundo en tiempo real, el llamado FuturICT. Para llevar a término este ambicioso proyecto, Helbing recibirá de la Unión Europea mil millones de euros. El mega-ordenador debería estar listo para el 2022 y nos permitiría conocer el futuro y usar ese conocimiento para variarlo o prevenirnos de éll.
Pero, como matiza Weinberger, muchos expertos se muestran escépticos sobre el éxito de tal proyecto. Para que tal ordenador funcionase sería precisa una continua entrada de datos en él, la capacidad de discriminar información relevante de la que no lo es sería también algo imprescindible para que tal ingenio funcionase de manera efectiva, no obstante, es tal la cantidad de datos en apariencia irrelevantes que se antoja casi imposible encontrar un sistema de discriminación que pudiese valorar la importancia o irrelevancia de un hecho concreto. Es algo que los matemáticos ya han advertido: una simple variación o un hecho insignificante ignorado conlleva que los modelos predictivos de fenómenos complejos fallen en sus vaticinios. Además estos errores o hechos no considerados desvían más las predicciones del mundo real cuanto más tiempo pasa.
Frente al FuturICT, muchos expertos se decantan por un modelo predictivo más abierto que tuviese en el estudio de flujos de datos de la red su paradigma. Internet se nos muestra como una comunidad de datos que interaccionan entre sí y con la realidad, un conocimiento sutil de ese flujo de datos nos permitiría construir modelos predictivos más abiertos y en interrelación. Los modelos predictivos no tienen que ser ni únicos ni unívocos. En otras palabras, diversos modelos predictivos estarían interrelacionados y no serían meras “conclusiones” de los datos sino generadores de datos diversos, plurales y en conflicto continuo. Internet contiene ya, en cierto modo, estos modelos predictivos plurales que no nos dan una verdad definida sino proyectos de futuros más o menos factibles que, sin duda, intervienen, en cuanto se introducen en el flujo de datos, en el desarrollo de los propios acontecimientos que pronostican.
Aunque la observación de hechos subatómicos interfiere en esos mismos hechos, no ocurre lo mismo, o, mejor dicho, no ocurre de manera tan obvia, a nivel macroscópico. Es decir, observar un anticiclón no interfiere de manera relevante en que se produzca o no una tormenta; sin embargo, este sistema predictivo que es válido para las tormentas, no lo es para predecir acontecimientos sociales porque estos acontecimientos sí se ven profundamente variados cuando son objeto de observación y predicción. En otras palabras, los modelos sociales se asemejan más a los modelos de predicción cuánticos que a los modelos macroscópicos al uso. Un error del FuturICT podría ser intentar extrapolar al ámbito social un sistema predictivo equivocado que fracturase el dinamismo esencial entre los hechos y las predicciones. Cualquier economista comprende hasta que punto las predicciones sobre el mercado interfieren en el mismo mercado, y la economía es una mera parte del entramado que llamamos sociedad.
David Weinberger se muestra más favorable al análisis de los flujos de datos en Internet que del megaordenador de mil millones de euros porque, aunque el FuturICT contenga predicciones que compitan entre sí o un sistema para corregir los errores de predicciones futuras analizando los errores de predicciones pasadas, el fin de tal modelo es el mismo que el de las predicciones meteorológicas: converger hacia una respuesta única.
La propuesta de construir un sistema predictivo que analice el flujo de datos de Internet también intenta llegar hacia la verdad, intenta que su modelo se ajuste lo más posible a la realidad en sus predicciones, sin embargo, la verdad en red es una verdad que asume como esencia la disención y la tensión entre las diversas propuestas. El modelo representado por el FuturICT presupone un concepto más clásico de verdad. Pero ¿qué es la verdad?
“Desde hace dos milenios, la cultura occidental ha considerado el conocimiento como un sistema de verdades establecidas y coherentes. Pero puede que esa concepción se deba más a los medios de transmisión de ideas que a la naturaleza del conocimiento en sí; a un tipo de saber que se transmite y se preserva, escrito en tinta sobre el papel, que pasa por filtros institucionales y que no sufre alteraciones. Sin embargo, los medios digitales de hoy no consisten tanto en un sistema de publicaciones como en una gran comunidad interconectada. Podemos extraer grandes dosis de conocimientos gracias a las propuestas de datos vinculados, pero lo más probable es que el resultado se nos presente como un discusión continua sobre la manera en que ha sido obtenido. Desde luego, así es como se presenta el conocimiento en la era de Internet: nunca del todo establecido, nunca escrito por completo y siempre por terminar.” (artículo citado)
Te paso un libro que tal vez te resulte interesante:
http://es.scribd.com/doc/81935880/El-hacker-contra-la-universidad-zombi
hola
gracias por el aporte. el libro tiene ideas novedosas en educación y ciertas consideraciones sobre la universidad que por evidentes parecen que no son suficientemente conocidas.
salud