En marzo, dos empleados de Google, cuyo trabajo consiste en revisar los productos de inteligencia artificial de la empresa, intentaron evitar que Google lanzara un chatbot de IA. Creían que generaba declaraciones inexactas y peligrosas.
Diez meses antes, especialistas en ética y otros empleados plantearon preocupaciones similares en Microsoft. Escribieron en varios documentos que la tecnología de inteligencia artificial detrás de un chatbot planificado podría inundar los grupos de Facebook con desinformación, degradar el pensamiento crítico y erosionar la base fáctica de la sociedad moderna.
Las empresas lanzaron sus chatbots de todos modos. Microsoft fue el primero, con un evento llamativo en febrero para revelar un chatbot de IA integrado en su motor de búsqueda Bing. Google siguió unas seis semanas después con su propio chatbot, Bard.
Los movimientos agresivos de las empresas que normalmente tienen aversión al riesgo fueron impulsados por una carrera para controlar lo que podría ser el próximo gran avance de la industria tecnológica: la IA generativa, la nueva y poderosa tecnología que alimenta esos chatbots.
Esa competencia tomó un tono frenético en noviembre cuando OpenAI, una empresa nueva de San Francisco que trabaja con Microsoft, lanzó ChatGPT, un chatbot que ha capturado la imaginación del público y ahora tiene aproximadamente 100 millones de usuarios mensuales.
El sorprendente éxito de ChatGPT ha llevado a Microsoft y Google a estar dispuestos a asumir mayores riesgos con sus pautas éticas establecidas a lo largo de los años para garantizar que su tecnología no cause problemas sociales, según 15 empleados actuales y anteriores y documentos internos de las empresas. .
La urgencia de construir con la nueva IA se cristalizó en un correo electrónico interno enviado el mes pasado por Sam Schillace, un ejecutivo de tecnología de Microsoft. Escribió en el correo electrónico, que fue visto por The New York Times, que fue un “error absolutamente fatal en este momento preocuparse por cosas que pueden arreglarse más tarde”.
Cuando la industria de la tecnología cambia repentinamente hacia un nuevo tipo de tecnología, la primera empresa en presentar un producto “es la ganadora a largo plazo simplemente porque empezó primero”, escribió. “A veces la diferencia se mide en semanas”.
La semana pasada, la tensión entre los que se preocupan y los que toman riesgos de la industria se manifestó públicamente cuando más de 1000 investigadores y líderes de la industria, incluidos Elon Musk y el cofundador de Apple, Steve Wozniak, pidieron una pausa de seis meses en el desarrollo de la poderosa tecnología de IA. En una carta pública, dijeron que presentaba “riesgos profundos para la sociedad y la humanidad”.
Los reguladores ya están amenazando con intervenir. La Unión Europea propuso una legislación para regular la IA e Italia prohibió temporalmente ChatGPT la semana pasada. En Estados Unidos, el presidente Biden se convirtió el martes en el último funcionario en cuestionar la seguridad de la IA.
Una nueva generación de chatbots
Un valeroso nuevo mundo. Una nueva cosecha de chatbots impulsados por inteligencia artificial ha iniciado una lucha para determinar si la tecnología podría cambiar la economía de Internet, convirtiendo a las potencias actuales en pasados y creando los próximos gigantes de la industria. Aquí están los bots para saber:
ChatGPT. ChatGPT, el modelo de lenguaje de inteligencia artificial de un laboratorio de investigación, OpenAI, ha estado en los titulares desde noviembre por su capacidad para responder a preguntas complejas, escribir poesía, generar código, planificar vacaciones y traducir idiomas. GPT-4, la última versión presentada a mediados de marzo, puede incluso responder a imágenes (y aprobar el examen de la barra uniforme).
Bing. Dos meses después del debut de ChatGPT, Microsoft, el principal inversionista y socio de OpenAI, agregó un chatbot similar, capaz de tener conversaciones de texto abiertas sobre prácticamente cualquier tema, a su motor de búsqueda en Internet Bing. Pero fueron las respuestas ocasionalmente inexactas, engañosas y extrañas del bot las que atrajeron gran parte de la atención después de su lanzamiento.
Ernie. El gigante de las búsquedas Baidu dio a conocer el primer gran rival de China para ChatGPT en marzo. El debut de Ernie, abreviatura de Representación mejorada a través de la integración del conocimiento, resultó ser un fracaso después de que se revelara que se había grabado una demostración “en vivo” prometida del bot.
“Las empresas de tecnología tienen la responsabilidad de asegurarse de que sus productos sean seguros antes de hacerlos públicos”, dijo en la Casa Blanca. Cuando se le preguntó si la IA era peligrosa, dijo: “Queda por verse. Podría ser.”
Los problemas que se plantean ahora fueron una vez el tipo de preocupaciones que llevaron a algunas empresas a sentarse en la nueva tecnología. Habían aprendido que la liberación prematura de IA podía ser vergonzosa. Hace cinco años, por ejemplo, Microsoft retiró rápidamente un chatbot llamado Tay después de que los usuarios lo empujaron para generar respuestas racistas.
Los investigadores dicen que Microsoft y Google se están arriesgando al lanzar tecnología que incluso sus desarrolladores no entienden del todo. Pero las empresas dijeron que habían limitado el alcance del lanzamiento inicial de sus nuevos chatbots y que habían creado sistemas de filtrado sofisticados para eliminar el discurso de odio y el contenido que podría causar un daño evidente.
Natasha Crampton, directora responsable de inteligencia artificial de Microsoft, dijo en una entrevista que seis años de trabajo en torno a la inteligencia artificial y la ética en Microsoft habían permitido que la empresa “se moviera con agilidad y consideración”. Agregó que “nuestro compromiso con la IA responsable se mantiene firme”.
Google lanzó Bard después de años de desacuerdo interno sobre si los beneficios de la IA generativa superaban los riesgos. Anunció Meena, un chatbot similar, en 2020. Pero ese sistema se consideró demasiado arriesgado para lanzarlo, dijeron tres personas con conocimiento del proceso. Esas preocupaciones fueron reportadas anteriormente por El periodico de Wall Street.
Más tarde, en 2020, Google impidió que sus principales investigadores éticos de IA, Timnit Gebru y Margaret Mitchell, publicaran un documento que advirtiera que los llamados modelos de lenguaje extenso utilizados en los nuevos sistemas de IA, que están capacitados para reconocer patrones a partir de grandes cantidades de datos, podrían pronunciar lenguaje abusivo o discriminatorio. Los investigadores fueron expulsados después de que el Dr. Gebru criticara los esfuerzos de diversidad de la compañía y acusaran a la Dra. Mitchell de violar su código de conducta después de que ella guardó algunos correos electrónicos de trabajo en una cuenta personal de Google Drive.
La Dra. Mitchell dijo que había tratado de ayudar a Google a lanzar productos de manera responsable y evitar la regulación, pero en cambio “realmente se dispararon en el pie”.
Brian Gabriel, un portavoz de Google, dijo en un comunicado que “seguimos haciendo de la IA responsable una prioridad principal, usando nuestra principios de IA y estructuras de gobierno interno para compartir responsablemente los avances de la IA con nuestros usuarios”.
Persistían las preocupaciones sobre los modelos más grandes. En enero de 2022, Google se negó a permitir que otro investigador, El Mahdi El Mhamdi, publicara un artículo crítico.
El Dr. El Mhamdi, un empleado a tiempo parcial y profesor universitario, utilizó teoremas matemáticos para advertir que los modelos de IA más grandes son más vulnerables a los ataques de ciberseguridad y presentan riesgos de privacidad inusuales porque probablemente han tenido acceso a datos privados almacenados en varios lugares alrededor. La Internet.
Aunque una presentación ejecutiva advirtió más tarde sobre violaciones similares de la privacidad de la IA, los revisores de Google le pidieron al Dr. El Mhamdi cambios sustanciales. Se negó y publicó el documento a través de École Polytechnique.
Renunció a Google este año, citando en parte “censura de investigación”. Dijo que los riesgos de la IA moderna “superan con creces” los beneficios. “Es un despliegue prematuro”, agregó.
Después del lanzamiento de ChatGPT, Kent Walker, el principal abogado de Google, se reunió con ejecutivos de investigación y seguridad en el poderoso Consejo de Revisión de Tecnología Avanzada de la empresa. Les dijo que Sundar Pichai, director ejecutivo de Google, estaba presionando mucho para lanzar la IA de Google.
Jen Gennai, directora del grupo de Innovación Responsable de Google, asistió a esa reunión. Recordó lo que el Sr. Walker le había dicho a su propio personal.
La reunión fue “Kent hablando con los ejecutivos de ATRC, diciéndoles: ‘Esta es la prioridad de la empresa'”, dijo la Sra. Gennai en una grabación que fue revisada por The Times. “’¿Cuáles son sus preocupaciones? Pongámonos en fila’”.
Walker les dijo a los asistentes que aceleraran los proyectos de IA, aunque algunos ejecutivos dijeron que mantendrían los estándares de seguridad, dijo Gennai.
Su equipo ya había documentado las preocupaciones con los chatbots: podrían producir información falsa, dañar a los usuarios que se apegan emocionalmente a ellos y permitir la “violencia facilitada por la tecnología” a través del acoso masivo en línea.
En marzo, dos revisores del equipo de la Sra. Gennai presentaron su evaluación de riesgo de Bard. Recomendaron bloquear su lanzamiento inminente, dijeron dos personas familiarizadas con el proceso. A pesar de las medidas de seguridad, creían que el chatbot no estaba listo.
EM. Gennai cambió ese documento. Sacó la recomendación y minimizó la gravedad de los riesgos de Bard, dijeron las personas.
La Sra. Gennai dijo en un correo electrónico a The Times que debido a que Bard era un experimento, se suponía que los revisores no debían opinar sobre si continuar. Dijo que “corregió suposiciones inexactas y, de hecho, agregó más riesgos y daños que necesitaban consideración”.
Google dijo que había lanzado Bard como un experimento limitado debido a esos debates, y la Sra. Gennai dijo que la capacitación continua, las medidas de seguridad y los descargos de responsabilidad hicieron que el chatbot fuera más seguro.
Google lanzó Bard para algunos usuarios el 21 de marzo. La compañía dijo que pronto integraría IA generativa en su motor de búsqueda.
Satya Nadella, director ejecutivo de Microsoft, apostó por la IA generativa en 2019 cuando Microsoft invirtió mil millones de dólares en OpenAI. Después de decidir que la tecnología estaba lista durante el verano, el Sr. Nadella instó a todos los equipos de productos de Microsoft a adoptar la IA.
Microsoft tenía políticas desarrolladas por su Oficina de IA Responsable, un equipo dirigido por la Sra. Crampton, pero las pautas no se aplicaron ni siguieron de manera consistente, dijeron cinco empleados actuales y anteriores.
A pesar de tener un principio de “transparencia”, los expertos en ética que trabajan en el chatbot no recibieron respuestas sobre qué datos usó OpenAI para desarrollar sus sistemas, según tres personas involucradas en el trabajo. Algunos argumentaron que integrar chatbots en un motor de búsqueda era una idea particularmente mala, dado que a veces presentaba detalles falsos, dijo una persona con conocimiento directo de las conversaciones.
La Sra. Crampton dijo que los expertos de Microsoft trabajaron en Bing y que las personas clave tenían acceso a los datos de capacitación. La compañía trabajó para hacer que el chatbot fuera más preciso vinculándolo a los resultados de búsqueda de Bing, agregó.
En otoño, Microsoft comenzó a dividir lo que había sido uno de sus equipos de ética tecnológica más grandes. El grupo, Ética y Sociedad, capacitó y consultó a los líderes de producto de la empresa para diseñar y construir de manera responsable. En octubre, la mayoría de sus miembros se dividieron en otros grupos, según cuatro personas familiarizadas con el equipo.
Los pocos restantes se unieron a las reuniones diarias con el equipo de Bing, compitiendo para lanzar el chatbot. John Montgomery, un ejecutivo de AI, les dijo en un correo electrónico de diciembre que su trabajo seguía siendo vital y que más equipos “también necesitarán nuestra ayuda”.
Después de que se presentó Bing con tecnología de inteligencia artificial, el equipo de ética documentó las preocupaciones persistentes. Los usuarios podrían volverse demasiado dependientes de la herramienta. Las respuestas inexactas podrían inducir a error a los usuarios. La gente podía creer que el chatbot, que usa una “I” y emojis, era humano.
A mediados de marzo, el equipo fue despedido, una acción que primero informó el técnico. Boletin informativo Plataformas. Pero la Sra. Crampton dijo que cientos de empleados todavía estaban trabajando en esfuerzos de ética.
Microsoft ha lanzado nuevos productos cada semana, un ritmo frenético para cumplir con los planes que el Sr. Nadella puso en marcha en el verano cuando presentó una vista previa del modelo más nuevo de OpenAI.
Le pidió al chatbot que tradujera al poeta persa Rumi al urdu y luego lo escribiera en caracteres ingleses. “Funcionó a las mil maravillas”, dijo en una entrevista en febrero. “Entonces dije, ‘Dios, esta cosa’”.
mike isaac reportaje contribuido. susan c playa investigación aportada.