ya no detiene modelos peligrosos si la competencia los lanza primero – Noticias ultima hora

Anthropic se encuentra en medio de una importante disputa con el Pentágono en Estados Unidos que puede determinar el futuro de la empresa. La empresa se fundó pensando en la seguridad y acaba de reescribir las reglas que la definían. Y su «Política de escalamiento responsable«, el documento que determinaba cuándo dejar de desarrollar un modelo demasiado peligroso, se ha convertido en una mera hoja de ruta con objetivos flexibles. Y este cambio es mucho más importante de lo que parece. No sólo para Anthropic, sino para el resto de la industria. Pongámonos manos a la obra.

¿Qué ha cambiado exactamente? Anteriormente, la política de Anthropic era que la empresa pausaría el entrenamiento o retrasaría el lanzamiento de un modelo si sus capacidades excedían la velocidad a la que se podían desarrollar suficientes salvaguardas. Esto significa que si el modelo era demasiado fuerte para controlarlo de forma segura, se detenía.

Esto se acabó. y eso es todo la nueva politica elimina este mecanismo de frenado automático y lo reemplaza con una serie de compromisos públicos e informes de riesgo periódicos verificados por terceros. El cambio fue confirmado por la propia empresa en un comunicado oficial.

¿Por qué lo hicieron? La empresa cita dos razones principales. El primero es el entorno competitivo: OpenAI, Google y xAI continúan desarrollándose sin tales restricciones. “No pensamos que tuviera sentido asumir compromisos unilaterales cuando la competencia avanzaba a toda velocidad”. contado dijo a Time Jared Kaplan, director científico de Anthropic. La segunda razón es, como no podía ser de otra manera, política: Washington le ha dado la espalda a la regulación de la IA, y Anthropic reconoce en su blog que el actual clima antirregulación está haciendo que sus propias protecciones sean asimétricas en comparación con el resto del sector.

paradoja. Desde la perspectiva de Anthropic, esto no es un sacrificio de seguridad, sino una decisión basada en ella. Su razonamiento: si los actores más responsables (lógicamente caen en este saco) renuncian mientras los menos cautelosos avanzan, el resultado final es “un mundo menos seguro”.

La lógica tiene cierta coherencia, pero también implica aceptar que la seguridad depende de lo que haga la competencia. Y este es un juego muy peligroso.

contexto. Anthropic fue fundada por ex ejecutivos de OpenAI, incluido Dario Amodei, quienes abandonaron la empresa porque creían que no estaba prestando suficiente atención a los riesgos de la IA. La nueva política llega en un momento en que varios investigadores de seguridad abandonaron la empresa. al igual que dividido Uno de ellos, Mrinank Sharma, del Wall Street Journal, escribió este mes una carta a sus colegas diciendo que «el mundo está en peligro debido a la IA» antes de anunciar su partida. De hecho, según fuentes cercanas al medio, su salida estaría en parte relacionada con esta decisión.

¿Qué está pasando con el Pentágono?. El anuncio contradice al Pentágono. El secretario de Defensa de Estados Unidos, Pete Hegseth, le dio a Anthropic un ultimátum el mismo martes en que se hizo público el cambio de política: cambiar las líneas rojas para el despliegue de Claude o arriesgarse a perder un contrato de 200 millones de dólares con el Departamento de Defensa. Anthropic ha dejado claro que ambos temas son independientes entre sí, pero la coincidencia de tiempos no ha pasado desapercibida.

Lo que queda de la política de seguridad. No es un abandono total. Anthropic sigue comprometido a retrasar el desarrollo o implementación de modelos de «alto rendimiento» en determinadas circunstancias y se compromete a publicar informes de riesgos detallados y verificados externamente cada tres a seis meses. La empresa ahora también está separando sus propias políticas internas de sus recomendaciones para el resto de la industria, reconociendo implícitamente que el compromiso de “carrera hacia la cima” que otras empresas están adoptando no ha funcionado como se esperaba.

Foto de portada | Wikimedia Commons y antrópico

En | Estados Unidos tiene un mensaje para las empresas de IA: si es necesario, la IA pertenece al Estado

Compartir:
Facebook
Twitter
LinkedIn
Reddit

Noticias relacionadas