A principios del año pasado, un hacker obtuvo acceso a los sistemas de mensajería internos de OpenAI, el fabricante de ChatGPT, y robó detalles sobre el diseño de las tecnologías de inteligencia artificial de la empresa.
Según dos personas familiarizadas con el incidente, el hacker robó detalles de las discusiones en un foro en línea donde los empleados hablaban sobre las últimas tecnologías de OpenAI, pero no pudo ingresar a los sistemas donde la compañía aloja y desarrolla su inteligencia artificial.
Según las dos personas, los ejecutivos de OpenAI revelaron el incidente a los empleados durante una reunión plenaria en las oficinas de la empresa en San Francisco en abril de 2023 e informaron a la junta directiva, que discutió información confidencial sobre el incidente bajo condición de anonimato.
Pero los ejecutivos decidieron no compartir la noticia públicamente porque no se había robado ninguna información de clientes o socios, dijeron las dos personas. Los ejecutivos no consideraron el incidente como una amenaza a la seguridad nacional porque creían que el hacker era un individuo privado sin vínculos conocidos con un gobierno extranjero. La empresa no notificó al FBI ni a ninguna otra persona encargada de hacer cumplir la ley.
Para algunos empleados de OpenAI, la noticia generó temores de que adversarios extranjeros como China pudieran robar tecnología de IA que, aunque ahora es principalmente una herramienta comercial y de investigación, en última instancia podría poner en peligro la seguridad nacional de Estados Unidos. También generó preguntas sobre la seriedad con la que OpenAI estaba tratando la seguridad y expuso fracturas dentro de la empresa por los riesgos de la inteligencia artificial.
Después de la infracción, Leopold Aschenbrenner, director del programa técnico de OpenAI comprometido a garantizar que las futuras tecnologías de IA no causen daños graves, envió un memorando a la junta directiva de OpenAI, argumentando que la empresa no estaba haciendo lo suficiente para evitar que el gobierno chino y otros extranjeros adversarios para robar sus secretos.
Aschenbrenner dijo que OpenAI lo había despedido esta primavera por filtrar otra información fuera de la empresa, y argumentó que su despido había tenido motivaciones políticas. Insinuó la infracción en un podcast reciente, pero los detalles del incidente no se han informado previamente. Dijo que la seguridad de OpenAI no era lo suficientemente fuerte como para proteger contra el robo de secretos clave si actores extranjeros se infiltraran en la empresa.
«Apreciamos las preocupaciones planteadas por Leopold mientras estaba en OpenAI, y esto no condujo a su separación», dijo una portavoz de OpenAI, Liz Bourgeois. Refiriéndose a los esfuerzos de la compañía para construir inteligencia artificial general, una máquina capaz de hacer todo lo que el cerebro humano puede hacer, agregó: «Si bien compartimos su compromiso de construir una inteligencia artificial general segura, no estamos de acuerdo con muchas de las declaraciones. «Ha hecho desde entonces sobre nuestro trabajo. Esto incluye sus caracterizaciones de nuestra seguridad, particularmente este incidente, que abordamos y compartimos con nuestra junta directiva antes de que se uniera a la empresa».
Los temores de que un hackeo a una empresa de tecnología estadounidense pueda tener vínculos con China no son descabellados. El mes pasado, Brad Smith, presidente de Microsoft, testificó en el Capitolio sobre cómo los piratas informáticos chinos utilizaron los sistemas del gigante tecnológico para lanzar un ataque de amplio alcance contra las redes del gobierno federal.
Sin embargo, según las leyes federales y de California, OpenAI no puede impedir que las personas trabajen en la empresa en función de su nacionalidad, y los investigadores de políticas han dicho que excluir el talento extranjero de los proyectos estadounidenses podría obstaculizar significativamente el progreso de la inteligencia artificial en los Estados Unidos.
«Necesitamos las mentes mejores y más brillantes trabajando en esta tecnología», dijo Matt Knight, director de seguridad de OpenAI, al New York Times en una entrevista. «Conlleva algunos riesgos y debemos comprenderlos».
(El Times está demandando a OpenAI y su socio, Microsoft, alegando que están infringiendo los derechos de autor sobre contenido de noticias relacionado con sistemas de inteligencia artificial).
OpenAI no es la única empresa que construye sistemas cada vez más potentes utilizando tecnología de IA que mejora rápidamente. Algunos de ellos, en particular Meta, propietario de Facebook e Instagram, comparten libremente sus diseños con el resto del mundo como software de código abierto. Creen que los peligros que plantean las tecnologías de IA actuales son pequeños y que compartir código permite a los ingenieros e investigadores de toda la industria identificar y resolver problemas.
Los sistemas de inteligencia artificial actuales pueden ayudar a difundir información errónea en línea, incluidos textos, imágenes fijas y, cada vez más, videos. También están empezando a quitar algunos puestos de trabajo.
Empresas como OpenAI y sus competidores Anthropic y Google añaden protecciones a sus aplicaciones de IA antes de ofrecerlas a individuos y empresas, con la esperanza de evitar que las personas utilicen las aplicaciones para difundir información errónea o causar otros problemas.
Pero no hay mucha evidencia de que las tecnologías de inteligencia artificial actuales representen un riesgo significativo para la seguridad nacional. Los estudios realizados por OpenAI, Anthropic y otros durante el año pasado demostraron que la IA no era significativamente más peligrosa que los motores de búsqueda. Daniela Amodei, cofundadora y presidenta de la empresa Anthropic, dijo que su última tecnología de inteligencia artificial no representaría un riesgo importante si sus diseños fueran robados o compartidos libremente con otros.
«Si fuera propiedad de otra persona, ¿podría ser extremadamente perjudicial para una gran parte de la sociedad? Nuestra respuesta es ‘No, probablemente no'», dijo al Times el mes pasado. «¿Podría acelerar algo para un mal actor en el futuro? Quizás. Es realmente especulativo».
Sin embargo, los investigadores y ejecutivos de tecnología han temido durante mucho tiempo que la IA algún día pueda impulsar la creación de nuevas armas biológicas o ayudar a penetrar los sistemas informáticos gubernamentales. Algunos incluso creen que podría destruir a la humanidad.
Varias empresas, incluidas OpenAI y Anthropic, ya están bloqueando sus operaciones técnicas. OpenAI creó recientemente un comité de seguridad para explorar cómo debería gestionar los riesgos que plantean las tecnologías futuras. El comité incluye a Paul Nakasone, un ex general del ejército que dirigió la Agencia de Seguridad Nacional y el Comando Cibernético. También fue nombrado miembro de la junta directiva de OpenAI.
«Comenzamos a invertir en seguridad años antes de ChatGPT», dijo Knight. «Estamos en un camino no sólo para comprender los riesgos y anticiparlos, sino también para fortalecer nuestra resiliencia».
Los funcionarios federales y los legisladores estatales también están presionando para que se establezcan regulaciones gubernamentales que impidan a las empresas lanzar ciertas tecnologías de inteligencia artificial y les impongan multas millonarias si sus tecnologías causan daño. Pero los expertos dicen que estos peligros aún están a años o incluso décadas de distancia.
Las empresas chinas están construyendo sus propios sistemas que son casi tan poderosos como los principales sistemas estadounidenses. Según algunas métricas, China ha eclipsado a Estados Unidos como el mayor productor de talentos en IA, y el país genera casi la mitad de los principales investigadores de IA del mundo.
«No es una locura pensar que China pronto superará a Estados Unidos», dijo Clément Delangue, director ejecutivo de Hugging Face, una empresa que alberga muchos de los proyectos de inteligencia artificial de código abierto del mundo.
Algunos investigadores y funcionarios de seguridad nacional sostienen que los algoritmos matemáticos subyacentes a los sistemas de inteligencia artificial actuales, si bien no son peligrosos hoy en día, podrían volverse peligrosos y exigen controles más estrictos sobre los laboratorios de inteligencia artificial.
“Incluso si los peores escenarios tienen una probabilidad relativamente baja, si tienen un alto impacto entonces es nuestra responsabilidad tomarlos en serio”, dijo Susan Rice, exasesora de política interna del presidente Biden y exasesora de seguridad nacional del presidente Barack Obama. , durante un evento en Silicon Valley el mes pasado. «No creo que sea ciencia ficción, como a muchos les gusta decir».