La compañía de investigación de la inteligencia artificial creada por Elon Musk, OpenAI, ha desarrollado un algoritmo capaz de escribir noticias falsas que parecen ciertas. Con tan solo un puñado de palabras, este algoritmo llamado GPT2 puede generar un texto informativo sobre cualquier tema con una apariencia plausible de veracidad.
Esta tecnología fue desarrollada inicialmente como un lenguaje capaz de responder preguntar, resumir historias y traducir textos, pero los investigadores se dieron cuenta que la inteligencia artificial podía ir un poco más allá y crear informaciones falsas.
GPT2 funciona como generador de texto. A partir de otros textos, desde unas pocas palabras hasta una página completa, el programa puede escribir frases basándose en sus predicciones de lo que debería venir a continuación. Al parecer el sistema está superando los límites de lo que se creía posible, tanto en términos de la calidad de la producción como de la amplia variedad de sus usos potenciales.
Afortunadamente, las noticias que esta IA ha escrito inicialmente son en su mayoría historias plagiadas y la coherencia del texto es superficial, y tan solo en casos contados ha conseguido redactar una noticia que realmente se la cuele a todo el mundo.
Sin embargo, los responsables del algoritmo aseguran que en uno o dos años se podría desarrollar un sistema capaz de crear noticias realmente creíbles que requieren de una verificación exhaustiva para poder refutarlas. Y a pesar del debate existente actualmente sobre la amenaza de las fake news, la compañía ha puesto a disposición del público una versión “simplificada” de esta IA.
Pero de momento han decidido no publicar los detalles de toda la investigación por temor a un posible mal uso de la tecnología, pues podría ir a parar a manos no tan concienciadas que utilicen las fake news de forma totalmente interesada.
De esta manera, OpenAI actuará en contra de su propia misión de impulsar la inteligencia artificial manteniendo el GPT2 a buen recaudo al menos por el momento, mientras evalúan lo que los posibles usuarios con malas intenciones podrían hacer con él.
“Necesitamos realizar experimentos para descubrir qué pueden y qué no pueden hacer”, afirma Jack Clark, jefe de política de la organización, en declaraciones a The Guardian. “Si no puedes anticipar todas las habilidades de un modelo, tienes que ponerlo a prueba para ver qué puede hacer”. “Estamos tratando de desarrollar un pensamiento más riguroso”, añade.