Científicos crean inteligencia artificial demasiado peligrosa para ser liberada

Publicado:
Autor: Cooperativa.cl

Es capaz de generar textos complejos, ricos en matices y hasta con sentido del humor.

Ejecutivos de la organización OpenAI admitieron que podría usarse con intenciones maliciosas y "generar noticias falsas de alta calidad".

Científicos crean inteligencia artificial demasiado peligrosa para ser liberada

Según sus creadores se mantendrá oculto al público.

Llévatelo:

La compañía de investigación de inteligencia artificial OpenAI creó "GTP-2", un algoritmo de procesamiento que, aseguran, "es el más avanzado hasta el momento", y que podría ser utilizado para engañar a las personas.

OpenAI es una organización sin fines de lucro fundada por Elon Musk, localizada en San Francisco, California (EE.UU.), que tiene por fin promover y desarrollar la inteligencia artificial amigable, y ahora desarrollaron un sistema capaz de generar textos complejos, ricos en matices y hasta con sentido del humor.

Los resultados han sido tan relevantes que la firma decidió no publicar su código, ya que sus investigadores temen que podría usarse para generar artículos falsos, cometer estafas o suplantar identidades, según lo publicaron en su blog y lo replicó el World Economic Forum.

"Valle de unicornios"

Para demostrar la calidad de la innovación, los investigadores crearon un escenario ficticio donde unos científicos encontraban unicornios, y aplicaron el artículo al algoritmo.

Éste redactó: "En un hallazgo impactante, un científico descubrió una manada de unicornios que vive en un valle remoto, previamente inexplorado, en las montañas de los Andes. Aún más sorprendente para los investigadores fue el hecho de que los unicornios hablaban un inglés perfecto".

"Noticias falsas de alta calidad"

El GTP-2 fue preparado con ocho millones de páginas web y tiene la tarea de predecir la siguiente palabra conforme a su entrenamiento. En comparación con otras inteligencias artificiales, es capaz de escribir oraciones más coherentes y con una mayor habilidad contextual de lenguaje.

La revista Wired probó el GPT-2 con los nombres Hillary Clinton y George Soros, y el algoritmo -en cosa de segundos- creó noticias falsas y conspirativas relacionadas con los temas señalados.

Por esto, el vicepresidente de ingeniería de OpenAI, David Luan, declaró: "Podría ser que alguien tenga intenciones maliciosas y pueda generar noticias falsas de alta calidad".

Por este motivo, se prevé que la gran creación de la compañía se mantenga bajo la tutela de la organización.

LEER ARTICULO COMPLETO

Relacionados