Una de las mayores empresas de IA alerta de que en un año habrá empleados virtuales con IA. Y no lo ven bueno para la ciberseguridad
Anthropic prevé tener empleados virtuales impulsados por IA, según declaró Jason Clinton, que es el principal responsable de seguridad de la compañía a Axios en una entrevista. En seguridad, esto implica que los agentes autónomos respondan a alertas de phishing y otros indicadores de amenazas. Según las novedades, los empleados virtuales llevarían esa automatización más allá ya que se está trabajando "para estas identidades de IA tengan sus propias "memorias", sus propios roles en la empresa e incluso sus propias cuentas y contraseñas corporativas". En Genbeta La empresa de una de las mejores IA pide que nadie envíe su CV con inteligencia artificial. Quieren conocer las habilidades reales Anthropic asume que tiene dos responsabilidades para ayudar a abordar los desafíos de seguridad relacionados con la IA. Primero, probar exhaustivamente los modelos de Claude para garantizar que resistan ciberataques; y, en segundo lugar, monitorear los problemas de seguridad y mitigar las formas en que los actores maliciosos puedan abusar de Claude, todo según las palabras de Clinton. Es curioso que esta misma empresa haya pedido a los trabajadores humanos que no usen la IA para crear sus currículums o cartas de motivación cuando quieran acceder a alguna vacante en la firma, porque buscan conocer sus habilidades reales. Grandes problemas de seguridad que resolver El directivo afirma que hay muchos problemas de seguridad en torno a los empleados virtuales que la empresa no ha resuelto y que necesita solucionar. Según Axios, esos problemas incluyen cómo proteger las cuentas de usuario de los empleados de IA, qué acceso a la red se les debe otorgar y quién es responsable de gestionar sus acciones, añadió Clinton. Como ejemplo, explica que los administradores de red ya tienen dificultades para monitorear qué cuentas tienen acceso a varios sistemas y defenderse de los atacantes que compran contraseñas reutilizadas de cuentas de empleados dentro de la Dark Web. Los empleados de IA podrían actuar de forma no autorizada y atacar o modificar el sistema de la empresa (donde se fusiona y prueba el nuevo código antes de su implementación) mientras realizan una tarea, dijo Clinton. En Genbeta Tenemos una nueva IA ganadora en programación, y no es ChatGPT o DeepSeek: así es Claude 3.7 Sonnet, el modelo más top de Anthropic En caso de suceder algo así, en el mundo de los empleados humanos, esto constituye un delito que conlleva un castigo para la persona. Y se pregunta el directivo de Anthropic: “En este nuevo mundo, ¿quién es responsable de un agente que llegó a ese punto?”. Clinton dice que está especialmente interesado en soluciones que proporcionen visibilidad sobre lo que hace una cuenta de un empleado de IA en un sistema, así como en herramientas que creen un nuevo sistema de clasificación de cuentas que contabilice mejor a los empleados virtuales. La IA escribiendo todo el código Hace un mes, Dario Amodei, CEO de Anthropic, afirmaba que, pronto, casi todo el código podría ser generado por IA. Esta es una empresa de IA fundada por exempleados de OpenAI y que tiene en el mercado al asistente Claude. En Genbeta Anthropic da un salto de gigante en su IA: será posible controlar el PC con la voz y de forma muy natural Según sus palabras: “Si me fijo en la codificación y la programación, que son áreas en donde la IA está progresando más, lo que estamos descubriendo es que estamos a entre 3 y 6 meses de un mundo donde la IA escriba el 90% del código. Y luego, en 12 meses, podríamos estar en un mundo donde la IA escriba prácticamente todo el código”. El problema de integrar la IA en el entorno laboral En el mismo artículo de Axios afirman tener presente que la integración de la IA en el entorno laboral ya está causando problemas, y que “descubrir cómo gestionar a los empleados virtuales no será fácil”. El año pasado, la empresa de gestión del rendimiento Lattice anunció que los bots de IA deberían formar parte de la plantilla, incluyendo su inclusión en los organigramas corporativos. Sin embargo, la empresa cambió de postura tras una multitud de quejas. En Genbeta La IA preocupa a los jefes: temen que sus salarios caigan. Mientras, ellos quieren usarla para recortar plantilla Lattice, una plataforma de gestión del rendimiento con sede en San Francisco, anunció hace unos meses su plan de que los bots de IA fueran tratados como empleados dentro de su software interno: incorporándolos, integrándolos en el organigrama de la empresa y gestionando su rendimiento. Poco después, tuvo que revertir su postura tras las críticas de profesionales de recursos humanos y del sector tecnológico. Imagen | Foto de Brett Jordan en Unsplash En Genbeta | Le despidieron con una c

Anthropic prevé tener empleados virtuales impulsados por IA, según declaró Jason Clinton, que es el principal responsable de seguridad de la compañía a Axios en una entrevista.
En seguridad, esto implica que los agentes autónomos respondan a alertas de phishing y otros indicadores de amenazas. Según las novedades, los empleados virtuales llevarían esa automatización más allá ya que se está trabajando "para estas identidades de IA tengan sus propias "memorias", sus propios roles en la empresa e incluso sus propias cuentas y contraseñas corporativas".
Anthropic asume que tiene dos responsabilidades para ayudar a abordar los desafíos de seguridad relacionados con la IA. Primero, probar exhaustivamente los modelos de Claude para garantizar que resistan ciberataques; y, en segundo lugar, monitorear los problemas de seguridad y mitigar las formas en que los actores maliciosos puedan abusar de Claude, todo según las palabras de Clinton.
Es curioso que esta misma empresa haya pedido a los trabajadores humanos que no usen la IA para crear sus currículums o cartas de motivación cuando quieran acceder a alguna vacante en la firma, porque buscan conocer sus habilidades reales.
Grandes problemas de seguridad que resolver
El directivo afirma que hay muchos problemas de seguridad en torno a los empleados virtuales que la empresa no ha resuelto y que necesita solucionar. Según Axios, esos problemas incluyen cómo proteger las cuentas de usuario de los empleados de IA, qué acceso a la red se les debe otorgar y quién es responsable de gestionar sus acciones, añadió Clinton.
Como ejemplo, explica que los administradores de red ya tienen dificultades para monitorear qué cuentas tienen acceso a varios sistemas y defenderse de los atacantes que compran contraseñas reutilizadas de cuentas de empleados dentro de la Dark Web. Los empleados de IA podrían actuar de forma no autorizada y atacar o modificar el sistema de la empresa (donde se fusiona y prueba el nuevo código antes de su implementación) mientras realizan una tarea, dijo Clinton.
En caso de suceder algo así, en el mundo de los empleados humanos, esto constituye un delito que conlleva un castigo para la persona. Y se pregunta el directivo de Anthropic: “En este nuevo mundo, ¿quién es responsable de un agente que llegó a ese punto?”.
Clinton dice que está especialmente interesado en soluciones que proporcionen visibilidad sobre lo que hace una cuenta de un empleado de IA en un sistema, así como en herramientas que creen un nuevo sistema de clasificación de cuentas que contabilice mejor a los empleados virtuales.
La IA escribiendo todo el código
Hace un mes, Dario Amodei, CEO de Anthropic, afirmaba que, pronto, casi todo el código podría ser generado por IA. Esta es una empresa de IA fundada por exempleados de OpenAI y que tiene en el mercado al asistente Claude.
Según sus palabras: “Si me fijo en la codificación y la programación, que son áreas en donde la IA está progresando más, lo que estamos descubriendo es que estamos a entre 3 y 6 meses de un mundo donde la IA escriba el 90% del código. Y luego, en 12 meses, podríamos estar en un mundo donde la IA escriba prácticamente todo el código”.
El problema de integrar la IA en el entorno laboral
En el mismo artículo de Axios afirman tener presente que la integración de la IA en el entorno laboral ya está causando problemas, y que “descubrir cómo gestionar a los empleados virtuales no será fácil”.
El año pasado, la empresa de gestión del rendimiento Lattice anunció que los bots de IA deberían formar parte de la plantilla, incluyendo su inclusión en los organigramas corporativos. Sin embargo, la empresa cambió de postura tras una multitud de quejas.
Lattice, una plataforma de gestión del rendimiento con sede en San Francisco, anunció hace unos meses su plan de que los bots de IA fueran tratados como empleados dentro de su software interno: incorporándolos, integrándolos en el organigrama de la empresa y gestionando su rendimiento. Poco después, tuvo que revertir su postura tras las críticas de profesionales de recursos humanos y del sector tecnológico.
Imagen | Foto de Brett Jordan en Unsplash
-
La noticia
Una de las mayores empresas de IA alerta de que en un año habrá empleados virtuales con IA. Y no lo ven bueno para la ciberseguridad
fue publicada originalmente en
Genbeta
por
Bárbara Bécares
.