Grandes pelucas de la tecnología: frenar las implementaciones de IA


Más de 1100 luminarias tecnológicas, ejecutivos y científicos han emitido una advertencia contra los laboratorios que realizan experimentos a gran escala con inteligencia artificial (IA) más poderosa que ChatGPT, diciendo que la tecnología representa una grave amenaza para la humanidad.

En una carta abierta publicada por The Future of Life Institute, una organización sin fines de lucro que tiene como objetivo reducir los riesgos existenciales y catastróficos globales para la humanidad, el cofundador de Apple, Steve Wozniak, el CEO de SpaceX y Tesla, Elon Musk, y el presidente del MIT Future of Life Institute, Max Tegmark. se unió a otros signatarios para decir que la IA plantea "profundos riesgos para la sociedad y la humanidad, como lo demuestra una extensa y reconocida investigación realizada por los mejores laboratorios de IA".

Los signatarios pidieron una pausa de seis meses en la implementación de sistemas de entrenamiento de inteligencia artificial más potentes que GPT-4, que es el modelo de lenguaje grande (LLM) que impulsa el popular chatbot de procesamiento de lenguaje natural ChatGPT. La carta, en parte, describía un futuro distópico que recuerda a los creados por redes neuronales artificiales en películas de ciencia ficción, como The Terminator y The Matrix. La carta se pregunta deliberadamente si la IA avanzada podría conducir a una "pérdida de control de nuestra civilización".

La misiva también advierte sobre la interrupción política "especialmente para la democracia" de AI: los chatbots que actúan como humanos podrían inundar las redes sociales y otras redes con propaganda y falsedades. Y advirtió que la IA podría "automatizar todo el trabajo, incluidos los de cumplimiento".

El grupo hizo un llamado a los líderes cívicos, no a la comunidad tecnológica, para que se hagan cargo de las decisiones sobre el alcance de las implementaciones de IA.

Los formuladores de políticas deberían trabajar con la comunidad de IA para acelerar drásticamente el desarrollo de sistemas sólidos de gobierno de IA que, como mínimo, incluyan nuevos reguladores de IA, sistemas de supervisión y monitoreo, IA de alto rendimiento y grandes conjuntos de capacidad informática. La carta también sugería que se utilizaran sistemas de procedencia y marcas de agua para ayudar a distinguir el contenido real del contenido sintético y para rastrear las fugas del modelo, así como un ecosistema sólido de auditoría y certificación.

“Los sistemas de IA contemporáneos ahora se están volviendo competitivos para los humanos en tareas generales”, dice la carta. “¿Deberíamos desarrollar mentes no humanas que eventualmente podrían ser más numerosas, más inteligentes, más obsoletas y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización? Tales decisiones no deben delegarse en líderes tecnológicos no elegidos.

(El gobierno del Reino Unido publicó hoy un libro blanco que describe los planes regulatorios de IA de propósito general, diciendo que "evitaría una legislación estricta que podría sofocar la innovación" y, en cambio, se basaría en las leyes existentes).

El Instituto Future of Life argumentó que los laboratorios de IA están atrapados en una carrera incontrolable para desarrollar y desplegar "mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden comprender, predecir o controlar de manera confiable".

Los firmantes incluyeron científicos de DeepMind Technologies, un laboratorio de investigación británico de IA y una subsidiaria de la empresa matriz de Google, Alphabet. Google anunció recientemente Bard, un chatbot conversacional basado en IA que desarrolló utilizando la familia de LLM LaMDA.

Los LLM son algoritmos de aprendizaje profundo (programas informáticos para el procesamiento del lenguaje natural) que pueden producir respuestas similares a las humanas a las consultas. La tecnología de IA generativa también puede producir código de computadora, imágenes, video y sonido.

Microsoft, que ha invertido más de € 10 mil millones en ChatGPT y el creador de GPT-4 OpenAI, no respondió a una solicitud de comentarios sobre la carta de hoy. OpenAI y Google tampoco respondieron de inmediato a una solicitud de comentarios.

Andrzej Arendt, director ejecutivo de la consultora de TI Cyber ​​Geeks, dijo que si bien las herramientas de IA generativa por sí solas aún no pueden ofrecer software de la más alta calidad como producto final, "su asistencia para generar fragmentos de código, configuraciones del sistema o pruebas unitarias puede ayudar significativamente". acelerar el trabajo del programador.

“¿Esto hará que los desarrolladores sean redundantes? No necesariamente, en parte porque los resultados que brindan tales herramientas no se pueden usar de manera confiable; la verificación del programador es necesaria”, continuó Arendt. “De hecho, los cambios en los métodos de trabajo han acompañado a los programadores desde el comienzo de la profesión. El trabajo de los desarrolladores cambiará a interactuar con los sistemas de IA hasta cierto punto. »

Los mayores cambios vendrán con la introducción de sistemas de inteligencia artificial a gran escala, dijo Arendt, que se pueden comparar con la revolución industrial del siglo XIX que reemplazó una economía basada en la artesanía, la agricultura y la manufactura.

“Con la IA, el salto tecnológico podría ser igual de grande, si no más grande. En este momento, no podemos prever todas las consecuencias”, dijo.

Vlad Tushkanov, científico de datos senior de la firma de seguridad cibernética Kaspersky con sede en Moscú, dijo que la integración de algoritmos LLM en más servicios puede generar nuevas amenazas. De hecho, los tecnólogos de LLM ya están investigando ataques, como la inyección rápida, que se pueden usar contra los LLM y los servicios que alimentan.

“Dado que la situación está cambiando rápidamente, es difícil estimar qué sucederá a continuación y si estas peculiaridades del LLM resultan ser el efecto secundario de su inmadurez o si son su vulnerabilidad inherente”, dijo Tushkanov. "Sin embargo, es posible que las empresas deseen incluirlos en sus modelos de amenazas al considerar la integración de LLM en aplicaciones de consumo".

Dicho esto, los LLM y las tecnologías de IA son útiles y ya automatizan una gran cantidad de "trabajo doloroso" que es necesario pero que no es agradable ni interesante para las personas. Los chatbots, por ejemplo, pueden escanear diariamente millones de alertas, correos electrónicos, probables páginas web de phishing y ejecutables potencialmente maliciosos.

"Este volumen de trabajo sería imposible sin la automatización", dijo Tushkanov. "... A pesar de todos los avances y tecnologías de punta, todavía hay una gran escasez de talento en ciberseguridad. Se estima que la industria necesita millones de profesionales más, y en este campo altamente creativo, no podemos dejar de desperdiciar a la gente que tenemos". en tareas monótonas y repetitivas".

La inteligencia artificial generativa y el aprendizaje automático no reemplazarán todos los trabajos de TI, incluidas las personas que luchan contra las amenazas de seguridad cibernética, dijo Tushkanov. Las soluciones para estas amenazas se desarrollan en un entorno adverso, donde los ciberdelincuentes trabajan contra las organizaciones para evadir la detección.

“Por lo tanto, es muy difícil automatizarlos, porque los ciberdelincuentes se adaptan a cada nueva herramienta y enfoque”, dijo Tushkanov. "Además, con la ciberseguridad, la precisión y la calidad son muy importantes, y en este momento los modelos de lenguaje grandes son, por ejemplo, propensos a las alucinaciones (como muestran nuestras pruebas, las tareas de ciberseguridad no son una excepción)".

El Future of Life Institute dijo en su carta que con salvaguardas, la humanidad puede disfrutar de un futuro próspero con IA.

“Diseñe estos sistemas para el beneficio de todos y dé a la sociedad la oportunidad de adaptarse”, dice la carta. "La sociedad se ha detenido en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacer eso aquí. Disfrutemos de un largo verano de IA, no se apresure a caer sin estar preparado".

© 2023 IDG Communications, Inc.