Haciendo que los modelos de IA sean más «conscientes» de sus sesgos y errores factuales podría potencialmente evitar que produzcan más información falsa en el futuro, escribió el cofundador de Microsoft en su blog, GatesNotes.
Las herramientas de IA generativa están aquí, y también lo está el potencial infinito para su mal uso. Podrían fabricar desinformación durante las elecciones. Rutinariamente inventan información sesgada e incorrecta. Además, facilitan enormemente hacer trampas en las tareas de redacción en la escuela.
El multimillonario Bill Gates, quien le dijo a Forbes a principios de este año que cree que el cambio hacia la IA es “tan importante como la PC”, está preocupado por todos estos desafíos. Pero, como expresó en una reciente publicación de blog, cree que la IA puede ser utilizada para abordar los problemas que ha creado.
Uno de los problemas más conocidos con los modelos de lenguaje grandes es su tendencia a “alucinar” o producir información incorrecta y sesgada o dañina desde el punto de vista factual. Esto se debe a que los modelos se entrenan con una gran cantidad de datos recopilados de internet, que está lleno de sesgos y desinformación. Sin embargo, Gates cree que es posible construir herramientas de IA que sean conscientes de los datos defectuosos con los que se entrenan y de las suposiciones sesgadas que hacen.
“Los modelos de IA heredan los prejuicios que están incrustados en el texto en el que se entrenan”, escribió. “Soy optimista de que, con el tiempo, los modelos de IA puedan aprender a distinguir entre hechos y ficción. Un enfoque es incorporar valores humanos y razonamiento de alto nivel en la IA”.
En ese sentido, destacó los esfuerzos de OpenAI, creador de ChatGPT, por hacer que sus modelos sean más precisos, representativos y seguros a través de la retroalimentación humana. Pero el chatbot viral está plagado de sesgos e inexactitudes incluso después de entrenarlo con una versión avanzada de su modelo de lenguaje grande, GPT-4. Los investigadores en IA descubrieron que ChatGPT refuerza los estereotipos de género sobre los trabajos de mujeres y hombres. (Chatbots más nuevos como el rival bot Claude 2.0 de Anthropic también están tratando de mejorar la precisión y mitigar el contenido dañino, pero aún no han sido ampliamente probados por los usuarios).
Gates tiene una razón para elogiar a ChatGPT: su compañía Microsoft ha invertido miles de millones de dólares en OpenAI. A fines de abril, su riqueza aumentó en US$2.000 millones después de que la llamada de ganancias de Microsoft mencionara la IA más de 50 veces. Actualmente, su valor se estima en aproximadamente US$118.000 millones.
Un ejemplo que Gates discutió en su blog es cómo los hackers y los ciberdelincuentes están utilizando herramientas de IA generativas para escribir código o crear voces generadas por IA para llevar a cabo estafas telefónicas. Estos impactos descontrolados de las herramientas llevaron a algunos líderes y expertos en IA, incluido el cofundador de Apple Steve Wozniak, el CEO de Tesla, SpaceX y Twitter Elon Musk y el cofundador del Center for Human Technology Tristan Harris, a pedir una pausa en la implementación de herramientas de IA poderosas en una carta abierta publicada a finales de marzo. Gates se opuso a la carta y enfatizó que no cree que una pausa en los avances resuelva ningún desafío. “No debemos intentar evitar temporalmente que las personas implementen nuevos avances en IA, como algunos han propuesto”, escribió.
En cambio, dijo que estas consecuencias ofrecen más razones para seguir desarrollando herramientas de IA avanzadas, así como regulaciones para que los gobiernos y las empresas puedan detectar, restringir y contrarrestar los malos usos de la IA. “Los ciberdelincuentes no dejarán de crear nuevas herramientas… El esfuerzo por detenerlos debe continuar al mismo ritmo”, escribió.
Pero la afirmación de Gates de que las herramientas de IA pueden ser utilizadas para combatir las deficiencias de otras herramientas de IA puede que no se sostenga en la práctica, al menos por ahora. Por ejemplo, aunque se han lanzado varios detectores de IA y detectores de deepfake, no todos siempre pueden identificar correctamente el contenido sintético o manipulado. Según un informe del New York Times, algunos muestran imágenes reales como generadas por IA de manera incorrecta. Sin embargo, la IA generativa, que aún es una tecnología incipiente, debe ser monitoreada y regulada por agencias gubernamentales y empresas para controlar sus efectos no deseados en la sociedad, afirmó Gates.
“Ahora estamos en la era de la IA. Es análogo a tiempos inciertos antes de los límites de velocidad y los cinturones de seguridad”, escribió Gates.