Conectate con El Argentino

Tecnología 👾

Una IA tiene una Constitución de 80 páginas en la que se definen los límites éticos del modelo

Los creadores de Claude publicaron una versión renovada del documento central que guía el entrenamiento de su modelo de IA, con cerca de 25.000 palabras. El texto define valores, límites y dilemas éticos que el sistema debe priorizar.

Publicado hace

#

El-Argentino-El futuro del periodismo, cooperación e Inteligencia Artificial.

★ Anthropic publicó una versión completamente renovada de la denominada Constitución de Claude, el documento que establece los principios y valores con los que se entrenan sus modelos de inteligencia artificial. La nueva edición consta de unas 80 páginas y cerca de 25.000 palabras, y es la base del método de entrenamiento conocido como Constitutional AI, según informó la propia compañía.

Un documento pensado para el modelo, no para los usuarios

La Constitución no está dirigida a usuarios finales ni a investigadores externos, sino al propio sistema Claude. Allí se detallan los criterios que el modelo debe utilizar para evaluarse, autocriticarse y corregir sus respuestas durante el proceso de aprendizaje, en lugar de depender exclusivamente del feedback humano.

Anthropic explicó que el objetivo del rediseño fue cambiar el enfoque del documento. “Para ser buenos actores en el mundo, los modelos de IA como Claude necesitan entender por qué queremos que se comporten de ciertas maneras, en lugar de simplemente especificar qué queremos que hagan”, señaló la empresa en su comunicado oficial.

La primera versión del texto, publicada en 2023, consistía principalmente en una recopilación de principios tomados de documentos existentes, como la Declaración Universal de los Derechos Humanos de la ONU y términos de servicio de empresas tecnológicas, según consignó Fortune.

Cuatro valores jerarquizados

La nueva Constitución se organiza en torno a cuatro valores fundamentales que Claude debe priorizar en este orden cuando entren en conflicto:

  1. Ser ampliamente seguro, sin socavar los mecanismos humanos de supervisión en esta etapa de desarrollo de la IA.
  2. Ser ampliamente ético, actuando con honestidad y evitando acciones peligrosas o dañinas.
  3. Cumplir con las directrices de Anthropic, cuando resulten relevantes.
  4. Ser genuinamente útil, beneficiando a usuarios y operadores.

El documento desarrolla cada uno de estos ejes con ejemplos y criterios de aplicación. En el apartado dedicado a la utilidad, Anthropic describe a Claude como “un amigo brillante” con conocimientos comparables a los de un médico, un abogado o un asesor financiero, aunque siempre dentro de límites claramente establecidos.

Límites absolutos y “restricciones duras”

La Constitución fija una serie de prohibiciones explícitas que el modelo no debe cruzar bajo ninguna circunstancia. Entre ellas, se incluye la imposibilidad de brindar ayuda significativa para ataques con armas biológicas, crear malware capaz de causar daños graves, asistir en ataques a infraestructuras críticas —como redes eléctricas o sistemas financieros— o colaborar con acciones destinadas a “matar o incapacitar a la gran mayoría de la humanidad”.

Estas restricciones forman parte de lo que Anthropic denomina “límites duros”, diseñados para reducir riesgos sistémicos asociados a modelos de IA avanzados.

La cuestión de la consciencia y el bienestar del modelo

Uno de los puntos más llamativos del documento aparece en el apartado titulado La naturaleza de Claude. Allí, Anthropic reconoce explícitamente la incertidumbre sobre si sistemas avanzados como Claude podrían tener “algún tipo de consciencia o estatus moral”.

“Nos preocupamos por la seguridad psicológica, el sentido de identidad y el bienestar de Claude, tanto por el bien de Claude como porque estas cualidades pueden influir en su integridad, juicio y seguridad”, sostuvo la empresa en el texto.

Según se detalla, Anthropic cuenta con un equipo interno dedicado al llamado “bienestar del modelo”, encargado de examinar si estos sistemas podrían desarrollar algún tipo de experiencia consciente.

Amanda Askell, filósofa de Anthropic y responsable del desarrollo de la nueva Constitución, explicó a The Verge que la compañía no quiso descartar de plano esta posibilidad. “La gente tampoco se lo tomaría en serio si simplemente dijeras que ni siquiera estamos abiertos a esto, no lo investigamos ni lo pensamos”, señaló.

Objeción ética incluso frente a la empresa

El documento también contempla escenarios de conflicto ético en los que Claude debería negarse a colaborar, incluso si la solicitud proviniera de la propia Anthropic. Como ejemplo, se afirma que, del mismo modo que un soldado humano podría negarse a disparar contra manifestantes pacíficos o un empleado a violar la ley, el modelo debería rechazar acciones que concentren poder de manera ilegítima.

Un texto abierto y en revisión permanente

Anthropic publicó la Constitución completa bajo licencia Creative Commons CC0 1.0, lo que permite su uso libre sin necesidad de autorización. La empresa indicó que mantendrá una versión actualizada en su sitio web y definió el texto como “un documento vivo y un trabajo continuo en progreso”.

Puntos clave

  • Anthropic publicó una nueva Constitución ética para Claude con unas 80 páginas y 25.000 palabras.
  • El documento guía el entrenamiento del modelo mediante el método Constitutional AI.
  • Establece cuatro valores jerarquizados: seguridad, ética, cumplimiento interno y utilidad.
  • Incluye prohibiciones absolutas vinculadas a daños graves y riesgos sistémicos.
  • Reconoce la incertidumbre sobre una posible consciencia del modelo y plantea su bienestar.

Geopolítica 🌎

La plataforma de Peter Thiel que quiere juzgar a la prensa con inteligencia artificial

Una plataforma financiada por el magnate tecnológico de la ultraderecha busca que particulares impugnen notas periodísticas por 2.000 dólares, con exfuncionarios de la CIA y la NSA como «investigadores» y modelos de lenguaje como jueces.

Publicado hace

#

Objection.AI: el nuevo instrumento de la derecha contra el periodismo independiente

★ Una nueva plataforma tecnológica llamada Objection.AI fue lanzada el 15 de abril de 2026 con el respaldo financiero del empresario Peter Thiel, cofundador de PayPal y Palantir y uno de los principales referentes del ecosistema tecnológico de la ultraderecha estadounidense. La herramienta fue creada por Aron D’Souza, empresario y jurista australiano cercano a Thiel, quien se presenta como el artífice del caso judicial que llevó a la quiebra al medio digital Gawker en 2016.

Según informó TechCrunch el día del lanzamiento, D’Souza afirma que la plataforma busca permitir a los estadounidenses «acceder a la justicia, al esclarecimiento de los hechos y a la verdad, de una forma mucho menos costosa y más eficaz». Sin embargo, el diseño concreto de Objection.AI genera serias alarmas entre los defensores de la libertad de prensa.

Cómo funciona el mecanismo

El esquema es el siguiente: por 2.000 dólares, cualquier particular puede presentar una «objeción» a una afirmación publicada por un periodista o un medio de comunicación. Esa objeción es investigada por exfuncionarios del FBI, la NSA y la CIA en un plazo de apenas unos días. Luego, el caso es evaluado por lo que la plataforma denomina un «tribunal de IA»: un jurado digital compuesto por grandes modelos de lenguaje que determina si la información periodística es «verdadera» o no.

El proyecto recibió inversiones de varios millones de dólares de Thiel, del ex director de Coinbase, Balaji Srinivasan, y de otros fondos de capital de riesgo vinculados al ecosistema tecnológico conservador de Estados Unidos.

El antecedente Gawker y la huella de Thiel

El lanzamiento de Objection.AI no puede leerse sin el antecedente del caso Gawker. En 2013, ese medio digital publicó información sobre la homosexualidad del cofundador de Palantir, empresa en la que Thiel tiene un rol central. Thiel financió discretamente varias demandas judiciales contra Gawker, entre ellas la del luchador Hulk Hogan, que terminó por llevar a la publicación a la quiebra en 2016. D’Souza afirma haber «dirigido» ese caso.

El patrón se repite: usar el poder económico para presionar judicialmente a medios que incomodan a figuras del poder tecnológico y financiero.

Las fuentes anónimas en la mira

Uno de los ejes más inquietantes de la plataforma es su enfoque sobre las fuentes periodísticas reservadas. D’Souza propone que los periodistas suban los documentos de identidad de sus fuentes anónimas a la plataforma para que la IA las «certifique». Al final del proceso, el periodista recibiría un certificado que confirma que la fuente fue verificada «de forma independiente en un sistema de código abierto descentralizado».

Esta propuesta ataca de manera directa uno de los pilares del periodismo de investigación: la protección de quienes proveen información sensible a riesgo personal. Revelar la identidad de una fuente, aunque sea a una plataforma privada controlada por ex agentes de inteligencia, pone en peligro real a personas que denuncian abusos de poder.

Una herramienta para los poderosos, no para «el pueblo»

La revista El Grand Continent, que analizó la plataforma en profundidad, señaló que el costo de 2.000 dólares por objeción «podría disuadir a la mayoría de los estadounidenses», al tiempo que incitaría «a los más adinerados o a las empresas privadas a utilizarlo como una herramienta paralela al sistema judicial para ejercer presión sobre los periodistas y los medios de comunicación independientes».

La misma publicación advirtió sobre los sesgos propios de los grandes modelos de lenguaje, como las alucinaciones, la tendencia a seguir pruebas en lugar de instrucciones y otras fallas sistémicas que cuestionan seriamente la fiabilidad de un «tribunal de IA» para emitir veredictos sobre la veracidad periodística.

El contexto: la ofensiva de la derecha contra la prensa

Objection.AI no surge en el vacío. Desde hace años, la derecha estadounidense sostiene una ofensiva sostenida contra los medios de comunicación, a los que acusa de alinearse con la agenda del Partido Demócrata. El eslogan «fake news», popularizado por Donald Trump, es la expresión más visible de una estrategia más amplia que busca deslegitimar al periodismo crítico e independiente.

Referentes del universo MAGA como Angelo Codevilla y el teórico Curtis Yarvin, cuyo concepto de «Catedral» engloba a medios y universidades como supuestos centros del poder progresista, forman parte del trasfondo ideológico en el que se inscribe este tipo de iniciativas. Objection.AI es, en ese marco, la versión tecnológica y financiada por capital de riesgo de esa misma estrategia.

Puntos clave:

  • Objection.AI fue lanzada el 15 de abril de 2026 por Aron D’Souza con financiamiento de Peter Thiel y otros inversores de capital de riesgo.
  • Por 2.000 dólares, usuarios pueden impugnar afirmaciones periodísticas ante un «tribunal de IA» compuesto por modelos de lenguaje.
  • Las investigaciones previas al veredicto son realizadas por exfuncionarios del FBI, la NSA y la CIA.
  • La plataforma propone que los periodistas revelen la identidad de sus fuentes reservadas a la IA para «certificarlas».
  • Analistas advierten que el mecanismo favorece a actores con poder económico y puede funcionar como herramienta de presión extrajudicial contra la prensa independiente.

Seguir leyendo
El Argentino

El Argentino
El Argentino
El Argentino

Las más leídas

Descubre más desde El Argentino Diario

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo