«Pausen inmediatamente el entrenamiento»: Musk y más personalidades, preocupados por GPT-4

«Pedimos a todos los laboratorios de IA que pausen inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4». Este es el mensaje reflejado en la carta abierta firmada por, entre otros, Elon Musk, Steve Wozniak (co-fundador de Apple), Jaan Tallinn (co-fundador de Skype) y Max Tegmark (MIT).

Esta carta, firmada por más de 1.000 personalidades del mundo tecnológico, pone en tela de juicio los rápidos avances de los sistemas de inteligencia artificial. En concreto, aquellos que supongan una capacidad superior a la de GPT-4.

Falta de planificación. La carta deja claro, en primer lugar, que el desarrollo en sistemas de IA puede representar un cambio profundo en la historia, siempre y cuando se gestione y planifique de forma adecuada. Los firmantes afirman que ni siquiera los creadores de estos sistemas, a día de hoy, son capaces de entender o predecir de forma fiable su comportamiento.

«Los sistemas contemporáneos de IA están llegando a competir con los humanos en tareas generales, y debemos preguntarnos: ¿Debemos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedades? ¿Debemos automatizar todos los trabajos? ¿Debemos desarrollar mentes no humanas que con el tiempo nos superen en número, inteligencia, obsolescencia y reemplazo?»

El ojo puesto en GPT-4. La carta no alude a una pausa completa en el desarrollo de la IA, sino a aquellos sistemas con más capacidad que GPT-4. Piden «un paso atrás» en la carrera hacia «modelos impredecibles y cada vez con más capacidades emergentes». El punto principal es que el desarrollo actual debe centrarse en «conseguir que los potentes sistemas de vanguardia actuales sean más precisos, seguros, interpretables, transparentes, robustos, alineados, fiables y leales

En otras palabras, pausar el desarrollo de capacidades cada vez superiores para empezar a trabajar en profundidad en el propio control y fiabilidad de estos sistemas.

Protocolos que supongan garantías. Más allá de trabajar en la fiabilidad y seguridad de estos sistemas de inteligencia artificial, se pone sobre la mesa la necesidad de desarrollar nuevos protocolos de seguridad compartidos entre los mismos. «Estos protocolos deberían garantizar que los sistemas que se adhieran a ellos sean seguros más allá de toda duda razonable». Se pide así una creación y adhesión a ciertos estándares que garanticen el buen hacer de estos sistemas.

Una mayor regulación. Ponen también sobre la mesa la necesidad de crear nuevas autoridades reguladoras en materia de IA. Estas, según la petición, deberían supervisar y seguir «sistemas de IA altamente capaces», amén de impulsar formas para distinguir lo real de lo creado de forma artificial. Se habla también de regulación legal en términos de posibles daños creados por la IA, rastreo de posibles fugas de datos en estos modelos o sistemas de financiación pública para investigación en materia de seguridad en este campo.

«Las instituciones necesitan estar bien dotadas de recursos para hacer frente a las drásticas perturbaciones económicas y políticas (especialmente para la democracia) que causará la IA.»

Un timing perfecto. La carta no podía llegar en un momento más adecuado, ya que esta parece ser la semana de cuestionarse los modelos IA. El pasado 27 de marzo, la Policía Europea advertía de que las redes criminales pueden usar este tipo de herramientas en su beneficio. Se ponía sobre la mesa los efectos en materia de desinformación que puede suponer el uso de estas herramientas, empleándose para crear textos aplicados al phishing o con otros fines maliciosos.