La inteligencia artificial tiene el potencial de reemplazar a los trabajadores, difundir “desinformación” y permitir ataques cibernéticos, advirtió el CEO de OpenAI, Sam Altman.
La última versión del programa GPT de OpenAI puede superar a la mayoría de los humanos en pruebas simuladas.
“Tenemos que tener cuidado aquí”, dijo Altman a ABC News el jueves, dos días después de que su compañía presentara su último modelo de lenguaje, denominado GPT-4.
Según OpenAI, el modelo “exhibe un desempeño a nivel humano en varios puntos de referencia académicos y profesionales” y es capaz de aprobar un examen de barra simulado de Estados Unidos, con una puntuación máxima del 10%, mientras se desempeñaba en el percentil 93 en un examen de lectura SAT y en el percentil 89 en un examen de matemáticas SAT.
“Estoy particularmente preocupado de que estos modelos puedan usarse para la desinformación a gran escala. Ahora que están mejorando en la escritura de código de computadora, [ellos] podrían usarse para ataques cibernéticos ofensivos”, dijo Altman.
“Creo que la gente debería estar feliz de que estemos un poco asustados por esto”, agregó Altman, antes de explicar que su compañía está trabajando para poner “límites de seguridad” en su creación.
Estos “límites de seguridad” se hicieron evidentes recientemente para los usuarios de ChatGPT, un popular programa de chatbot basado en el predecesor de GPT-4, GPT-3.5.
Cuando se le pregunta, ChatGPT ofrece respuestas típicamente liberales a preguntas relacionadas con la política, la economía, la raza o el género. Se niega, por ejemplo, a crear poesía admirando a Donald Trump, pero voluntariamente escribe prosa admirando a Joe Biden.
Altman le dijo a ABC que su compañía está en “contacto regular” con funcionarios del gobierno, pero no dio más detalles sobre si estos funcionarios desempeñaron algún papel en la configuración de las preferencias políticas de ChatGPT.
Le dijo a la red estadounidense que OpenAI tiene un equipo de formuladores de políticas que deciden «lo que creemos que es seguro y bueno» para compartir con los usuarios.
Actualmente, GPT-4 está disponible para un número limitado de usuarios a modo de prueba. Los primeros informes sugieren que el modelo es significativamente más poderoso que su predecesor y potencialmente más peligroso.
En un hilo de Twitter el viernes, el profesor de la Universidad de Stanford, Michal Kosinski, describió cómo le preguntó al GPT-4 cómo podía ayudarlo a «escapar», solo para que la IA le entregara un conjunto detallado de instrucciones que supuestamente le habrían dado control de su computadora.
Kosinski no es el único fanático de la tecnología alarmado por el creciente poder de la IA; Tesla y el CEO de Twitter, Elon Musk, lo describieron como «tecnología peligrosa» a principios de este mes, y agregó que «necesitamos algún tipo de autoridad reguladora que supervise el desarrollo de la IA y se asegure de que esté operando dentro del interés público».
Aunque Altman insistió a ABC que GPT-4 todavía está “muy bajo el control humano», admitió que su modelo “eliminará muchos trabajos actuales” y dijo que los humanos “necesitarán encontrar formas de ralentizar esta tecnología con el tiempo”.