Sam Altman, fundador de OpenAI, sobre un posible fin del mundo: "Ningún búnker te salvará si la IA se sale de control"
Sam Altman es, sin lugar a dudas, uno de los personajes clave de esta década. Desde la irrupción global de ChatGPT en el mercado, las cosas no han hecho más que acelerarse año tras año con el éxito sin paliativos de los modelos de Inteligencia Artificial (IA). Sin embargo, también ha despertado un nuevo miedo, concretamente a un apocalipsis causado por la IA, motivo por el que muchos ricos se están comprando sus propios búnkers.Ahora, con la suerte de Guerra Fría que están librando los Estados Unidos y China, el miedo es aún mayor, sobre todo después de la irrupción de una IA china como es DeepSeek en el mercado global. Ahora que Sam Altman se encuentra en el candelero por sus enfrentamientos con Elon Musk que quiere comprar OpenAI, es turno de recuperar una entrevista que ofreció en el 2023, en los albores de la IA, en la que explicaba los peligros de la inteligencia artificial general (AGI) y como ningún búnker podría salvar a la humanidad si esta se escapara del control de los humanos.Una AGI maligna y el fin de la HumanidadLos seres humanos nos hemos convertido en la especie dominante en buena medida por nuestro potencial transformador e inteligencia. Esto no es extraño, pero nunca hemos tenido que lidiar con una especie más inteligente que nosotros. El objetivo de la inteligencia artificial general es que lo sea, lo que genera algunos miedos.En una entrevista recogida por Business Insider, Altman aseguró tener "algunas estructuras", pero a las que no llamaría un búnker como tal, sino una especie de refugio seguro. Sin embargo, fue tajante con el potencial destructivo de la AGI y la incapacidad de encontrar búnker que nos pudiera salvar de ella:"Nada de eso va a ayudar si la AGI sale mal, es una pregunta ridícula"Sam Altman es lo que, en la cultura norteamericana, se conoce como "preparacionista" o simplemente prepper. Este tipo de personas se preparan para una situación fuera de control en la que se pueda desatar un apocalipsis, ya sea de tipo nuclear o de cualquier otro. Pero está claro que no lo hace pensando en la irrupción de la AGI de forma demoledora, ya que en ese caso ni su creador tendría salvación.De esta manera, Altman aclaraba en el 2023 su visión sobre el potencial destructivo de la IA, aunque quiere evitar que esta situación llegue y seguir desarrollando la IA de una forma eficiente y segura para todos. Recientemente aseguraba haber estado en el lado equivocado de la historia.El artículo Sam Altman, fundador de OpenAI, sobre un posible fin del mundo: "Ningún búnker te salvará si la IA se sale de control" fue publicado originalmente en Andro4all.

Sam Altman es, sin lugar a dudas, uno de los personajes clave de esta década. Desde la irrupción global de ChatGPT en el mercado, las cosas no han hecho más que acelerarse año tras año con el éxito sin paliativos de los modelos de Inteligencia Artificial (IA). Sin embargo, también ha despertado un nuevo miedo, concretamente a un apocalipsis causado por la IA, motivo por el que muchos ricos se están comprando sus propios búnkers.
Ahora, con la suerte de Guerra Fría que están librando los Estados Unidos y China, el miedo es aún mayor, sobre todo después de la irrupción de una IA china como es DeepSeek en el mercado global. Ahora que Sam Altman se encuentra en el candelero por sus enfrentamientos con Elon Musk que quiere comprar OpenAI, es turno de recuperar una entrevista que ofreció en el 2023, en los albores de la IA, en la que explicaba los peligros de la inteligencia artificial general (AGI) y como ningún búnker podría salvar a la humanidad si esta se escapara del control de los humanos.
Una AGI maligna y el fin de la Humanidad
Los seres humanos nos hemos convertido en la especie dominante en buena medida por nuestro potencial transformador e inteligencia. Esto no es extraño, pero nunca hemos tenido que lidiar con una especie más inteligente que nosotros. El objetivo de la inteligencia artificial general es que lo sea, lo que genera algunos miedos.
En una entrevista recogida por Business Insider, Altman aseguró tener "algunas estructuras", pero a las que no llamaría un búnker como tal, sino una especie de refugio seguro. Sin embargo, fue tajante con el potencial destructivo de la AGI y la incapacidad de encontrar búnker que nos pudiera salvar de ella:
"Nada de eso va a ayudar si la AGI sale mal, es una pregunta ridícula"
Sam Altman es lo que, en la cultura norteamericana, se conoce como "preparacionista" o simplemente prepper. Este tipo de personas se preparan para una situación fuera de control en la que se pueda desatar un apocalipsis, ya sea de tipo nuclear o de cualquier otro. Pero está claro que no lo hace pensando en la irrupción de la AGI de forma demoledora, ya que en ese caso ni su creador tendría salvación.
De esta manera, Altman aclaraba en el 2023 su visión sobre el potencial destructivo de la IA, aunque quiere evitar que esta situación llegue y seguir desarrollando la IA de una forma eficiente y segura para todos. Recientemente aseguraba haber estado en el lado equivocado de la historia.
El artículo Sam Altman, fundador de OpenAI, sobre un posible fin del mundo: "Ningún búnker te salvará si la IA se sale de control" fue publicado originalmente en Andro4all.