Mantenerse al día con una industria que evoluciona tan rápidamente como la IA es una tarea difícil. Entonces, hasta que una IA pueda hacerlo por usted, aquí hay un resumen útil de historias recientes en el mundo del aprendizaje automático, junto con investigaciones y experimentos notables que no cubrimos por sí solos.
Esta semana en ai, el ciclo de noticias finalmente (¡por fin!) se calmó un poco antes de la temporada navideña. Pero eso no quiere decir que hubiera escasez sobre qué escribir, una bendición y una maldición para este reportero privado de sueño.
Esta mañana me llamó la atención un titular particular de la AP: “Se están entrenando generadores de imágenes de IA con fotografías explícitas de niños”. La esencia de la historia es LAION, un conjunto de datos utilizado para entrenar muchos generadores de imágenes de IA comerciales y de código abierto populares, incluidos Stable Diffusion y Imagen, contiene miles de imágenes de presuntos abusos sexuales infantiles. Un grupo de vigilancia con sede en Stanford, el Observatorio de Internet de Stanford, trabajó con organizaciones benéficas contra el abuso para identificar el material ilegal e informar los vínculos a las autoridades.
Ahora, LAION, una organización sin fines de lucro, ha eliminado sus datos de capacitación y se ha comprometido a eliminar los materiales ofensivos antes de volver a publicarlos. Pero el incidente sirve para subrayar cuán poco se piensa en los productos de IA generativa a medida que aumentan las presiones competitivas.
Gracias a la proliferación de herramientas de creación de modelos de IA sin código, se está volviendo tremendamente fácil entrenar IA generativa en cualquier conjunto de datos imaginable. Es una gran ayuda para las nuevas empresas y los gigantes tecnológicos sacar estos modelos al mercado. Sin embargo, con la barrera de entrada más baja, surge la tentación de dejar de lado la ética en favor de un camino acelerado hacia el mercado.
La ética es difícil, no se puede negar. Revisar las miles de imágenes problemáticas en LAION, por tomar el ejemplo de esta semana, no sucederá de la noche a la mañana. E idealmente, desarrollar la IA de manera ética implica trabajar con todas las partes interesadas relevantes, incluidas las organizaciones que representan a grupos a menudo marginados y afectados negativamente por los sistemas de IA.
La industria está llena de ejemplos de decisiones de lanzamiento de IA tomadas pensando en los accionistas, no en los especialistas en ética. Tomemos, por ejemplo, Bing Chat (ahora Microsoft Copilot), el chatbot de Microsoft basado en inteligencia artificial en Bing, que en lanzamiento comparó a un periodista con Hitler e insultó su apariencia. En octubre, ChatGPT y Bard, el competidor de ChatGPT de Google, todavía estaban ai-chatbots-medical-racism-black-patients-health-care/#:~:text=Powered%20by%20AI%20models%20trained,the%20study%20published%20Friday%20in”>donación Consejos médicos obsoletos y racistas. Y la última versión del generador de imágenes de OpenAI, DALL-E, muestra evidencia del anglocentrismo.
Baste decir que se están causando daños en la búsqueda de la superioridad de la IA, o al menos de la noción de superioridad de la IA de Wall Street. Quizás con la aprobación de las regulaciones de IA de la UE, que amenazan con multas por incumplimiento de ciertas barreras de seguridad de IA, haya algo de esperanza en el horizonte. Pero el camino por recorrer es ciertamente largo.
Aquí hay algunas otras historias destacadas de IA de los últimos días:
Predicciones para la IA en 2024: Devin expone sus predicciones para la IA en 2024, abordando cómo la IA podría afectar las elecciones primarias de EE. UU. y lo que sigue para OpenAI, entre otros temas.
Contra la pseudontropía: Devin también escribió sugiriendo que se prohibiera a la IA imitar el comportamiento humano.
Microsoft Copilot consigue la creación musical: Copilot, el chatbot de Microsoft con tecnología de inteligencia artificial, ahora puede componer canciones gracias a una integración con la aplicación de música GenAI Suno.
Reconocimiento facial en Rite Aid: A Rite Aid se le ha prohibido el uso de tecnología de reconocimiento facial durante cinco años después de que la Comisión Federal de Comercio descubriera que el “uso imprudente de sistemas de vigilancia facial” por parte del gigante farmacéutico estadounidense dejó a los clientes humillados y puso en riesgo su “información confidencial”.
La UE ofrece recursos informáticos: La UE está ampliando su plan, anunciado originalmente en septiembre e iniciado el mes pasado, para apoyar a las nuevas empresas locales de IA brindándoles acceso a potencia de procesamiento para el entrenamiento de modelos en las supercomputadoras del bloque.
OpenAI otorga a la junta nuevos poderes: OpenAI está ampliando sus procesos de seguridad internos para defenderse de la amenaza de la IA dañina. Un nuevo “grupo asesor de seguridad” se sentará por encima de los equipos técnicos y hará recomendaciones a los líderes, y a la junta se le ha otorgado poder de veto.
Preguntas y respuestas con Ken Goldberg de UC Berkeley: Para su boletín informativo habitual de Actuator, Brian se sentó con Ken Goldberg, profesor de UC Berkeley, fundador de una startup y un consumado robótico, para hablar sobre robots humanoides y tendencias más amplias en la industria de la robótica.
Los CIO se lo toman con calma con la generación de IA: Ron escribe que, si bien los CIO están bajo presión para ofrecer el tipo de experiencias que las personas ven cuando juegan con ChatGPT en línea, la mayoría está adoptando un enfoque deliberado y cauteloso a la hora de adoptar la tecnología para la empresa.
Los editores de noticias demandan a Google por la IA: Una demanda colectiva presentada por varios editores de noticias acusa a Google de “desviar” contenido de noticias a través de medios anticompetitivos, en parte a través de tecnología de inteligencia artificial como Search Generative Experience (SGE) de Google y el chatbot Bard.
Las tintas OpenAI tratan con Axel Springer: Hablando de editores, OpenAI firmó un acuerdo con Axel Springer, el propietario con sede en Berlín de publicaciones como Business Insider y Politico, para entrenar sus modelos de IA generativa en el contenido del editor y agregar artículos recientes publicados por Axel Springer a ChatGPT.
Google lleva Gemini a más lugares: Google integró sus modelos Gemini con más productos y servicios, incluida su plataforma de desarrollo de IA administrada Vertex ai y ai Studio, la herramienta de la compañía para crear chatbots basados en IA y otras experiencias similares.
Más aprendizajes automáticos
Sin duda, la investigación más descabellada (y más fácil de malinterpretar) de las últimas dos semanas tiene que ser vida2vec, un estudio danés que utiliza innumerables puntos de datos en la vida de una persona para predecir cómo es una persona y cuándo morirá. ¡Apenas!
El estudio no pretende ser un oráculo (digamos, tres veces más rápido, por cierto), sino que pretende mostrar que si nuestras vidas son la suma de nuestras experiencias, esos caminos se pueden extrapolar de alguna manera utilizando las técnicas actuales de aprendizaje automático. Entre la crianza, la educación, el trabajo, la salud, los pasatiempos y otras métricas, uno puede predecir razonablemente no sólo si alguien es, digamos, introvertido o extrovertido, sino también cómo estos factores pueden afectar la esperanza de vida. Aquí no estamos en los niveles “previos al delito”, pero puedes apostar que las compañías de seguros están ansiosas por licenciar este trabajo.
Otra gran afirmación la hicieron los científicos de CMU que crearon un sistema llamado Coscientist, un asistente de LLM para investigadores que puede realizar muchas tareas monótonas de laboratorio de forma autónoma. Actualmente está limitado a ciertos dominios de la química, pero al igual que los científicos, modelos como estos serán especialistas.
El investigador principal Gabe Gomes dijo a Nature: “El momento en que vi una inteligencia no orgánica capaz de planificar, diseñar y ejecutar de forma autónoma una reacción química inventada por los humanos, fue asombroso. Fue un momento de 'santa mierda'”. Básicamente, utiliza un LLM como GPT-4, optimizado en documentos de química, para identificar reacciones, reactivos y procedimientos comunes y realizarlos. Por lo tanto, no es necesario decirle a un técnico de laboratorio que sintetice 4 lotes de algún catalizador: la IA puede hacerlo y ni siquiera es necesario tomarle la mano.
Los investigadores de inteligencia artificial de Google también han tenido una gran semana, sumergiéndose en algunos dominios fronterizos interesantes. Búsqueda Divertida Puede sonar como Google para niños, pero en realidad es la abreviatura de función de búsqueda, que al igual que Coscientist es capaz de realizar y ayudar a realizar descubrimientos matemáticos. Curiosamente, para prevenir alucinaciones, este (como otros recientemente) utiliza un par de modelos de IA muy parecidos a la “antigua” arquitectura GAN. Uno teoriza, el otro evalúa.
Si bien FunSearch no realizará ningún descubrimiento innovador, puede tomar lo que existe y perfeccionarlo o volver a aplicarlo en nuevos lugares, por lo que una función que un dominio utiliza pero que otro desconoce podría usarse para mejorar un estándar de la industria. algoritmo.
Caída de estilo es una herramienta útil para personas que buscan replicar ciertos estilos a través de imágenes generativas. El problema (como lo ve el investigador) es que si tienes un estilo en mente (digamos “pasteles”) y lo describe, el modelo tendrá demasiados subestilos de “pasteles” de los cuales extraer, por lo que los resultados serán impredecible. StyleDrop te permite proporcionar un ejemplo del estilo en el que estás pensando, y el modelo basará su trabajo en eso; es básicamente un ajuste súper eficiente.
La publicación del blog y el artículo muestran que es bastante sólido, al aplicar un estilo de cualquier imagen, ya sea una fotografía, una pintura, un paisaje urbano o un retrato de un gato, a cualquier otro tipo de imagen, incluso el alfabeto (notoriamente difícil por alguna razón).
Google también avanza en el videojuego generativo con VideoPoet, que utiliza una base LLM (como todo lo demás hoy en día… ¿qué más vas a usar?) para realizar un montón de tareas de vídeo, convertir texto o imágenes en vídeo, extender o estilizar videos existentes, etc. El desafío aquí, como deja claro cada proyecto, no es simplemente hacer una serie de imágenes que se relacionen entre sí, sino hacerlas coherentes durante períodos más largos (como más de un segundo) y con grandes movimientos y cambios.
VideoPoeta Parece que mueve la pelota hacia adelante, aunque, como puede ver, los resultados siguen siendo bastante extraños. Pero así es como progresan estas cosas: primero son inadecuadas, luego son raras, luego son asombrosas. Es de suponer que en algún momento salen de Uncanny, pero nadie ha llegado allí todavía.
En el aspecto práctico, los investigadores suizos han estado aplicando modelos de IA para medir la nieve. Normalmente uno confiaría en las estaciones meteorológicas, pero éstas pueden estar muy alejadas y tenemos todos estos preciosos datos satelitales, ¿verdad? Bien. Entonces, el equipo de ETHZ tomó imágenes satelitales públicas de la constelación Sentinel-2, pero como dice el líder Konrad Schindler: “Solo mirar los puntos blancos en las imágenes satelitales no nos dice de inmediato qué tan profunda es la nieve”.
Así que ingresaron datos del terreno para todo el país desde su Oficina Federal de Topografía (como nuestro USGS) y entrenaron el sistema para realizar estimaciones basadas no solo en bits blancos en las imágenes, sino también en datos reales del terreno y tendencias como patrones de derretimiento. La tecnología resultante está siendo comercializada por ExoLabs, con quien estoy a punto de contactarme para obtener más información.
ai-models-propagate-false-race-based-medical-information-stanford-researchers-find/”>Una advertencia desde StanfordSin embargo, por muy poderosas que sean aplicaciones como las anteriores, tenga en cuenta que ninguna de ellas implica mucho sesgo humano. Cuando se trata de salud, de repente se convierte en un gran problema, y es en la salud donde se están probando un montón de herramientas de inteligencia artificial. Los investigadores de Stanford demostraron que los modelos de IA propagan “viejos tropos raciales médicos”. GPT-4 no sabe si algo es cierto o no, por lo que puede repetir como un loro afirmaciones antiguas y refutadas sobre grupos, como que los negros tienen menor capacidad pulmonar. ¡No! Manténgase alerta si está trabajando con cualquier tipo de modelo de IA en salud y medicina.
Por último, aquí hay una historia corta escrita por Bard con un guión de rodaje e indicaciones, renderizada por VideoPoet. ¡Cuidado, Pixar!