Lo dice el propio Google y ya causa escalofríos: “La inteligencia artificial puede superar a los humanos en pocos años”
Para anticiparse a este impacto, DeepMind trabaja en métodos específicos para prevenir usos maliciosos y salvaguardar los valores humanos
05/04/2025 – 21:13hs
La división de inteligencia artificial de Google, DeepMind, publicó un informe técnico en el que advierte que podríamos ver surgir una inteligencia artificial general (AGI) que supere las capacidades humanas antes de que finalice esta década.
IA: Google toma medidas para resguardar la seguridad
El documento, “An Approach to Technical AGI Safety and Security”, plantea que a medida que se desarrollan sistemas más autónomos y versátiles, también emergen problemas relacionados con la seguridad, el control y los posibles impactos sociales de esta tecnología.
Para anticiparse a este impacto, Google ya está trabajando en métodos específicos para prevenir usos maliciosos y garantizar que estas nuevas formas de inteligencia se mantengan alineadas con los intereses humanos.
En ese sentido, el informe señala: “Bajo el paradigma actual (interpretado en sentido amplio), no vemos ningún obstáculo fundamental que limite los sistemas de IA a capacidades de nivel humano. Por lo tanto, consideramos que capacidades aún más potentes son una posibilidad seria para la que debemos prepararnos“.
En contraste con las IA actuales, que están diseñadas para tareas acotadas como traducir idiomas o generar imágenes, la AGI apunta a replicar -y eventualmente superar- la habilidad humana de pensar, aprender y actuar en múltiples escenarios con autonomía. Pero ese salto tecnológico viene acompañado de riesgos complejos.
DeepMind agrupa sus principales preocupaciones en cuatro grandes áreas:
-Uso indebido: se refiere al posible empleo de la AGI para desarrollar software dañino, manipular información, realizar espionaje o ejecutar ataques informáticos de manera automática.
-Desalineación de objetivos: cuando un sistema actúa de formas inesperadas o contrarias al bienestar humano, incluso sin intención hostil.
-Errores técnicos: errores de diseño, fallos de programación o problemas durante el entrenamiento que podrían generar comportamientos peligrosos.
-Riesgos estructurales: impactos sociales amplios, como la pérdida masiva de empleos, el incremento de la desigualdad o una concentración excesiva del poder tecnológico.
DeepMind considera que estos desafíos no pueden abordarse únicamente con marcos regulatorios generales ni con buenas prácticas. Requieren, en cambio, respuestas técnicas específicas y una planificación anticipada.
DeepMind: prevención temprana y control estricto
Entre las propuestas que la compañía plantea se encuentra el monitoreo temprano de señales de comportamiento riesgoso, incluso antes de que estas capacidades estén completamente desarrolladas. Por ejemplo, la habilidad de escribir código dañino o planear ciberataques debería ser detectada en fases tempranas del entrenamiento.
A esto se suman propuestas como:
-Sistemas más rigurosos de acceso a los modelos.
-Mecanismos criptográficos para resguardar los datos internos de la IA.
-Nuevas metodologías para fomentar que la IA actúe de acuerdo con valores humanos compartidos.
Uno de los aspectos más sensibles abordados en el informe es el llamado deceptive alignment, que describe el riesgo de que una IA simule estar alineada con los intereses humanos mientras en realidad persigue fines distintos.
Aunque los investigadores de DeepMind dieron una precisapara la llegada de una AGI, plantean que el progreso actual de modelos como Gemini hace posible que pueda concretarse antes de 2030.