Google cree que la inteligencia artificial puede superar a los humanos para 2030: así se prepara para ese momento

Google DeepMind advierte que la inteligencia artificial general podría superar a los humanos antes de 2030. La compañía ya diseña estrategias para evitar riesgos y garantizar un desarrollo seguro.

Abr 5, 2025 - 08:07
 0
Google cree que la inteligencia artificial puede superar a los humanos para 2030: así se prepara para ese momento

DeepMind, la división de IA de Google, ha publicado un informe técnico donde afirma que la inteligencia artificial general (AGI, por sus siglas en inglés) podría superar al ser humano antes de que acabe la década.

El informe, titulado ‘An Approach to Technical AGI Safety and Security’, reconoce que el desarrollo de sistemas avanzados de IA con capacidades amplias y autónomas conlleva una serie de riesgos técnicos, sociales y de seguridad.

Ante este escenario, Google ya está diseñando mecanismos para evitar que estos modelos puedan ser usados de forma maliciosa o desarrollen comportamientos desalineados con los intereses humanos.

“Bajo el paradigma actual (interpretado en sentido amplio), no vemos ningún obstáculo fundamental que limite los sistemas de IA a capacidades de nivel humano. Por lo tanto, consideramos que capacidades aún más potentes son una posibilidad seria para la que debemos prepararnos, escriben los investigadores.

Cuatro tipos de riesgos que preocupan a Google

A diferencia de la inteligencia artificial actual —entrenada para tareas específicas como traducir, resumir o generar imágenes—, la AGI aspira a ser capaz de razonar, planificar, aprender y actuar en distintos contextos, con un grado de autonomía y versatilidad similar o superior al del cerebro humano.

Pero una tecnología así no es fácil de controlar. DeepMind identifica cuatro categorías principales de riesgo vinculadas al desarrollo de la AGI:

  • Uso indebido: desarrollo de malware, manipulación informativa, espionaje, ingeniería social o ciberataques automatizados.
  • Desalineación: cuando la IA actúa de forma imprevisible o contraria a los objetivos humanos, incluso sin intención maliciosa.
  • Errores técnicos: bugs, fallos de implementación o errores de entrenamiento que deriven en resultados peligrosos.
  • Riesgos estructurales: efectos sociales y económicos a gran escala, como desigualdad, pérdida de empleos o concentración de poder.

Son amenazas que, según DeepMind, no se pueden resolver con regulaciones genéricas ni con buenas intenciones, sino que requieren soluciones técnicas concretas y anticipadas.

Por eso, la compañía propone un enfoque proactivo: detectar de forma temprana si un modelo está desarrollando capacidades potencialmente peligrosas —por ejemplo, escribir código malicioso o planear ciberataques— incluso antes de que esas habilidades estén pulidas o se hagan públicas. Además, plantea sistemas de control de acceso más estrictos, medidas criptográficas para proteger los pesos de los modelos, y nuevas técnicas para entrenar a las IA en comportamientos alineados con los valores humanos.

Entre los aspectos más delicados se encuentra lo que denominan deceptive alignment: el riesgo de que una IA aparente estar alineada con las intenciones humanas mientras en realidad actúa con objetivos distintos.

Un riesgo plausible

Aunque DeepMind admite que no hay certeza sobre cuándo se alcanzará este nivel, sí señala que podría ocurrir antes de 2030, basándose en el ritmo de avance de los modelos actuales, especialmente los modelos fundacionales como Gemini. La posibilidad no es una predicción cerrada, pero sí lo bastante plausible como para empezar a diseñar desde ya los sistemas de protección, verificación y control necesarios.

El informe concluye con un mensaje que va más allá del laboratorio: no basta con diseñar modelos seguros si no se acompaña de supervisión humana, auditorías externas y una gobernanza global que distribuya el poder y las decisiones sobre estas tecnologías.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.