OpenAI frena IA: riesgo de noticias falsas

Fuentes: When Is Technology Too Dangerous to Release to the Public?

La organización de investigación de inteligencia artificial OpenAI ha desarrollado un nuevo modelo de generación de texto, GPT-2, capaz de producir prosa coherente y adaptable a diversos estilos. Sin embargo, la empresa ha decidido no publicar el código completo del algoritmo, citando preocupaciones sobre seguridad y posibles usos indebidos, como la generación de noticias falsas y la suplantación de identidad. En su lugar, OpenAI ha lanzado una versión reducida del modelo, reteniendo los conjuntos de datos y el código de entrenamiento. La decisión ha generado un debate sobre la responsabilidad en el desarrollo de la inteligencia artificial y la necesidad de equilibrar la innovación con la mitigación de riesgos. Aunque algunos expertos consideran que las advertencias de OpenAI podrían ser exageradas para generar atención mediática, la empresa argumenta que la tecnología podría ser utilizada para amplificar la producción de contenido malicioso. La situación plantea preguntas sobre la ética de restringir el acceso a avances tecnológicos y la viabilidad de contener la proliferación de algoritmos potencialmente peligrosos, ya que otros con los recursos necesarios podrían replicar la tecnología.