Google elimina el lenguaje sobre armas de los principios para IA: qué significa y los riesgos

Los Principios de IA de la compañía incluían anteriormente un pasaje titulado “Aplicaciones de IA que no perseguiremos”, como “tecnologías que causen o puedan causar un daño general”, incluidas las armas.

El cambio forma parte de un giro más amplio en las políticas de las grandes empresas tecnológicas.
Por Julia Love - Olivia Solon - Davey Alba
04 de febrero, 2025 | 09:33 PM

Bloomberg — Google, de Alphabet Inc. (GOOGL), eliminó un pasaje de sus principios de inteligencia artificial que prometía evitar el uso de la tecnología en aplicaciones potencialmente dañinas, como las armas.

Los Principios de IA de la compañía incluían anteriormente un pasaje titulado “Aplicaciones de IA que no perseguiremos”, como “tecnologías que causen o puedan causar un daño general”, incluidas las armas, según capturas de pantalla vistas por Bloomberg. Ese lenguaje ya no es visible en la página.

PUBLICIDAD

En respuesta a una solicitud de comentarios, un portavoz de Google compartió una entrada de blog publicada el martes.

“Creemos que las democracias deben liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto de los derechos humanos”, escribieron en el post James Manyika, vicepresidente senior de Google, y Demis Hassabis, que dirige el laboratorio de IA Google DeepMind. “Y creemos que las empresas, los gobiernos y las organizaciones que comparten estos valores deben trabajar juntos para crear una IA que proteja a las personas, promueva el crecimiento global y apoye la seguridad nacional”.

Eliminar la cláusula de “daño” puede tener implicaciones para el tipo de trabajo que Google llevará a cabo, dijo Margaret Mitchell, que codirigió el equipo de IA ética de Google y ahora es jefa científica de ética de la startup de IA Hugging Face.

Lea más: Alphabet cae tras las decepcionantes ventas en la nube que opacaron sus ingresos.

“Haber eliminado eso es borrar el trabajo que tanta gente en el espacio ético de la IA y en el espacio activista también había hecho en Google, y lo que es más problemático, significa que Google probablemente trabajará ahora en el despliegue directo de tecnología que puede matar a personas”, dijo.

El cambio forma parte de un giro más amplio en las políticas de las grandes empresas tecnológicas. En enero, Meta Platforms Inc. (META) disolvió muchos de sus esfuerzos de diversidad e inclusión, diciendo a los empleados que ya no se les exigiría entrevistar a candidatos de orígenes subrepresentados para puestos vacantes. Ese mismo mes, Amazon.com Inc. (AMZN) detuvo algunos programas de diversidad e inclusión, y un alto ejecutivo de recursos humanos los calificó de “anticuados”. La administración del presidente Donald Trump ha expresado su oposición a las iniciativas de diversidad.

Tracy Pizzo Frey, que supervisó lo que se conoce como IA responsable en Google Cloud de 2017 a 2022, dijo que los principios de la IA guiaban el trabajo que su equipo hacía cada día. “Nos pidieron que interrogáramos profundamente el trabajo que hacíamos en cada uno de ellos”, dijo en un mensaje. “Y creo fundamentalmente que esto hizo que nuestros productos fueran mejores. La IA responsable crea confianza. Y la confianza es necesaria para el éxito”.

PUBLICIDAD

Los empleados de Google llevan mucho tiempo debatiendo cómo equilibrar las preocupaciones éticas y la dinámica competitiva en el campo de la IA, sobre todo desde que el lanzamiento de ChatGPT de OpenAI subió la temperatura en el gigante de las búsquedas. Algunos Googlers expresaron a Bloomberg en 2023 su preocupación por el hecho de que el afán de la empresa por recuperar terreno en la IA hubiera provocado lapsus éticos.

Lea más en Bloomberg.com