Renuncias en Open AI y Anthropic alertan sobre publicidad, incentivos y riesgos en el futuro próximo de la IA

Las principales empresas de inteligencia artificial atraviesan días de tensión interna. En menos de una semana, dos investigadores con roles relevantes en OpenAI -creadores de ChatGPT- y Anthropic -fundada por exmiembros de OpenAI- anunciaron su renuncia con advertencias públicas sobre el rumbo que está tomando la industria.

Aunque los motivos no fueron los mismos, ambos apuntaron a un mismo núcleo de preocupación: el problema no sería la inteligencia artificial en sí, sino el modelo económico y de gobernanza que la rodea.

Por un lado, Zoë Hitzig, investigadora de OpenAI durante dos años, dejó la compañía tras conocerse que ChatGPT comenzó a testear publicidad.

En una columna publicada en The New York Times, sostuvo que la empresa corre el riesgo de repetir el camino de Facebook, donde la lógica publicitaria terminó erosionando compromisos iniciales con la privacidad y el bienestar de los usuarios.

Casi en paralelo, Mrinank Sharma, investigador en seguridad de IA en Anthropic, comunicó su salida en una extensa carta interna que luego se difundió públicamente. Ahí planteó una advertencia más amplia y existencial: no sólo sobre la inteligencia artificial, sino sobre una “policrisis” global en la que la tecnología amplifica riesgos sociales, políticos y humanos.

El problema no es la IA, son los incentivos

Hitzig fue precisa en su diagnóstico. ChatGPT no es una red social tradicional, sino un sistema conversacional al que millones de personas le confían pensamientos íntimos, problemas de salud, miedos y creencias profundas. Construir un negocio publicitario sobre ese archivo, sin precedentes en la historia tecnológica, crea, según ella, incentivos peligrosos para perfilar, manipular y maximizar la dependencia emocional de los usuarios.

Zoë Hitzig, exinvestigadora de OpenAI.

Aunque OpenAI aseguró que los anuncios estarán claramente identificados y no influirán en las respuestas del modelo, la exinvestigadora advirtió que el problema no está en la primera versión, sino en la lógica económica que se activa.

“Se crea un motor de incentivos que presiona para romper las propias reglas”, escribió, recordando cómo Facebook pasó de prometer control a los usuarios a optimizar todo en función del engagement.

ChatGPT no es Claude: la escala importa

En su análisis, Hitzig también marcó una diferencia clave con Anthropic, la empresa detrás de Claude. Aunque desde allí se afirmó que nunca se implementarán anuncios, la comparación no es simétrica. ChatGPT tiene cerca de 800 millones de usuarios semanales, con un uso cotidiano, personal y emocionalmente intenso.

Claude, en cambio, opera, al menos por ahora, en un mercado más reducido y orientado a desarrolladores, empresas y tareas profesionales.

Esa diferencia de escala y de vínculo con el usuario explica por qué el modelo publicitario resulta especialmente sensible en OpenAI. No se trata sólo de financiar una tecnología costosa, sino de hacerlo sin convertir una herramienta de acompañamiento cotidiano en un sistema de influencia comercial difícil de auditar.

Las alternativas que propone Zoe Hitzig

A diferencia de otras críticas más abstractas, Hitzig propuso alternativas concretas para evitar el dilema entre “pago exclusivo” o “publicidad invasiva”.

Una de esas es un esquema de subsidios cruzados: que empresas que utilizan IA para generar alto valor económico, por ejemplo, plataformas inmobiliarias o corporaciones que reemplazan trabajo humano y ahorran en sueldos, paguen un sobrecargo que financie el acceso gratuito o de bajo costo para el público general.

Otra opción, según propuso, es aceptar la publicidad, pero bajo estructuras de gobernanza vinculantes, con organismos independientes que tengan poder real para auditar el uso de datos, definir qué constituye un cambio de política relevante y limitar la explotación comercial de la información conversacional.

Finalmente, planteó un modelo más radical: colocar los datos de los usuarios bajo el control de fideicomisos o cooperativas, con obligación legal de actuar en interés de quienes generan esa información, similar a experiencias en el ámbito de la salud en Europa.

Una advertencia ética sin manual de salida

La carta de Sharma se movió en un registro distinto. A diferencia de Hitzig, no ofreció soluciones técnicas ni modelos alternativos. Su renuncia fue, más bien, una señal de alarma ética y personal. Describió la dificultad de sostener valores incluso en organizaciones comprometidas con la seguridad de la IA, cuando la presión competitiva y la urgencia tecnológica se imponen.

En ese sentido, su mensaje no apuntó a un cambio puntual de políticas, sino a una pregunta más incómoda: si la humanidad está preparada, cultural y moralmente, para el poder que está construyendo.

El rol del Estado y la cooperación internacional

En este escenario, el CEO de Anthropic, Dario Amodei, reconoció en una reciente entrevista con The New York Times que la inteligencia artificial puede derivar tanto en avances extraordinarios como en riesgos extremos. Aunque evitó propuestas concretas, insistió en la necesidad de cooperación internacional, límites compartidos y acuerdos entre gobiernos para evitar una carrera desregulada.

Dario Amodei, CEO de Anthropic.

Amodei admitió que no existen garantías claras de éxito y que el desafío central no es solo tecnológico, sino político e institucional.

Un debate que recién empieza

Leídas en conjunto, las tres miradas muestran un mapa complejo y desafiante. No hay un rechazo a la inteligencia artificial, sino una discusión creciente sobre cómo se financia, quién la controla y qué incentivos moldean su evolución.

El debate, que hasta hace poco parecía reservado a círculos académicos, surge ahora desde el interior de las empresas líderes. Y deja planteada una pregunta incómoda pero inevitable: si la inteligencia artificial va a redefinir la vida cotidiana de millones de personas, ¿puede su futuro quedar librado únicamente a la lógica del mercado y la competencia?

Las principales empresas de inteligencia artificial atraviesan días de tensión interna. En menos de una semana, dos investigadores con roles relevantes en OpenAI -creadores de ChatGPT- y Anthropic -fundada por exmiembros de OpenAI- anunciaron su renuncia con advertencias públicas sobre el rumbo que está tomando la industria.Aunque los motivos no fueron los mismos, ambos apuntaron a un mismo núcleo de preocupación: el problema no sería la inteligencia artificial en sí, sino el modelo económico y de gobernanza que la rodea.Por un lado, Zoë Hitzig, investigadora de OpenAI durante dos años, dejó la compañía tras conocerse que ChatGPT comenzó a testear publicidad.En una columna publicada en The New York Times, sostuvo que la empresa corre el riesgo de repetir el camino de Facebook, donde la lógica publicitaria terminó erosionando compromisos iniciales con la privacidad y el bienestar de los usuarios.Casi en paralelo, Mrinank Sharma, investigador en seguridad de IA en Anthropic, comunicó su salida en una extensa carta interna que luego se difundió públicamente. Ahí planteó una advertencia más amplia y existencial: no sólo sobre la inteligencia artificial, sino sobre una “policrisis” global en la que la tecnología amplifica riesgos sociales, políticos y humanos.Today is my last day at Anthropic. I resigned.Here is the letter I shared with my colleagues, explaining my decision. pic.twitter.com/Qe4QyAFmxL— mrinank (@MrinankSharma) February 9, 2026El problema no es la IA, son los incentivosHitzig fue precisa en su diagnóstico. ChatGPT no es una red social tradicional, sino un sistema conversacional al que millones de personas le confían pensamientos íntimos, problemas de salud, miedos y creencias profundas. Construir un negocio publicitario sobre ese archivo, sin precedentes en la historia tecnológica, crea, según ella, incentivos peligrosos para perfilar, manipular y maximizar la dependencia emocional de los usuarios.Aunque OpenAI aseguró que los anuncios estarán claramente identificados y no influirán en las respuestas del modelo, la exinvestigadora advirtió que el problema no está en la primera versión, sino en la lógica económica que se activa.“Se crea un motor de incentivos que presiona para romper las propias reglas”, escribió, recordando cómo Facebook pasó de prometer control a los usuarios a optimizar todo en función del engagement.ChatGPT no es Claude: la escala importaEn su análisis, Hitzig también marcó una diferencia clave con Anthropic, la empresa detrás de Claude. Aunque desde allí se afirmó que nunca se implementarán anuncios, la comparación no es simétrica. ChatGPT tiene cerca de 800 millones de usuarios semanales, con un uso cotidiano, personal y emocionalmente intenso.Claude, en cambio, opera, al menos por ahora, en un mercado más reducido y orientado a desarrolladores, empresas y tareas profesionales.Esa diferencia de escala y de vínculo con el usuario explica por qué el modelo publicitario resulta especialmente sensible en OpenAI. No se trata sólo de financiar una tecnología costosa, sino de hacerlo sin convertir una herramienta de acompañamiento cotidiano en un sistema de influencia comercial difícil de auditar.Las alternativas que propone Zoe HitzigA diferencia de otras críticas más abstractas, Hitzig propuso alternativas concretas para evitar el dilema entre “pago exclusivo” o “publicidad invasiva”.Una de esas es un esquema de subsidios cruzados: que empresas que utilizan IA para generar alto valor económico, por ejemplo, plataformas inmobiliarias o corporaciones que reemplazan trabajo humano y ahorran en sueldos, paguen un sobrecargo que financie el acceso gratuito o de bajo costo para el público general.Otra opción, según propuso, es aceptar la publicidad, pero bajo estructuras de gobernanza vinculantes, con organismos independientes que tengan poder real para auditar el uso de datos, definir qué constituye un cambio de política relevante y limitar la explotación comercial de la información conversacional.Finalmente, planteó un modelo más radical: colocar los datos de los usuarios bajo el control de fideicomisos o cooperativas, con obligación legal de actuar en interés de quienes generan esa información, similar a experiencias en el ámbito de la salud en Europa.Una advertencia ética sin manual de salidaLa carta de Sharma se movió en un registro distinto. A diferencia de Hitzig, no ofreció soluciones técnicas ni modelos alternativos. Su renuncia fue, más bien, una señal de alarma ética y personal. Describió la dificultad de sostener valores incluso en organizaciones comprometidas con la seguridad de la IA, cuando la presión competitiva y la urgencia tecnológica se imponen.En ese sentido, su mensaje no apuntó a un cambio puntual de políticas, sino a una pregunta más incómoda: si la humanidad está preparada, cultural y moralmente, para el poder que está construyendo.El rol del Estado y la cooperación internacionalEn este escenario, el CEO de Anthropic, Dario Amodei, reconoció en una reciente entrevista con The New York Times que la inteligencia artificial puede derivar tanto en avances extraordinarios como en riesgos extremos. Aunque evitó propuestas concretas, insistió en la necesidad de cooperación internacional, límites compartidos y acuerdos entre gobiernos para evitar una carrera desregulada.Amodei admitió que no existen garantías claras de éxito y que el desafío central no es solo tecnológico, sino político e institucional.Un debate que recién empiezaLeídas en conjunto, las tres miradas muestran un mapa complejo y desafiante. No hay un rechazo a la inteligencia artificial, sino una discusión creciente sobre cómo se financia, quién la controla y qué incentivos moldean su evolución.El debate, que hasta hace poco parecía reservado a círculos académicos, surge ahora desde el interior de las empresas líderes. Y deja planteada una pregunta incómoda pero inevitable: si la inteligencia artificial va a redefinir la vida cotidiana de millones de personas, ¿puede su futuro quedar librado únicamente a la lógica del mercado y la competencia?La Voz