
Dos personas hacen la misma pregunta a un sistema de inteligencia artificial. Una obtiene una respuesta genérica. La otra reformula, ajusta, vuelve a intentar. Minutos después, tiene un resultado más preciso, más útil, más cercano a lo que buscaba. La diferencia no está en la herramienta, sino en quién la usa.
Los informes recientes de Anthropic parten de esa escena repetida millones de veces y ponen en discusión una idea instalada: que la inteligencia artificial reduce automáticamente las diferencias entre usuarios. Sus datos no confirman ese supuesto. Tampoco lo descartan. Pero sí muestran algo más incómodo: el rendimiento con IA no es parejo.
El informe “Anthropic Economic Index: Learning Curves” analiza cómo las personas incorporan estas herramientas en tareas reales. Allí se observa que algunos usuarios desarrollan habilidades de uso más rápido y logran resultados más consistentes. No se trata solo de saber usar la tecnología, sino de saber qué hacer con ella.
En ese punto aparece una diferencia que no es nueva, pero sí más visible. Los usuarios con mayor formación o experiencia previa tienden a aprovechar mejor la IA. No porque la herramienta esté diseñada para ellos, sino porque cuentan con recursos para interpretarla, corregirla y volver a intentarlo.

La nueva habilidad: saber interactuar con la máquina
Los reportes de Anthropic introducen el concepto de “fluidez en IA”. No refiere a conocimientos técnicos avanzados, sino a una capacidad más difícil de medir: interactuar de manera estratégica con sistemas que no siempre responden de forma lineal.
Un usuario fluido no se limita a ejecutar una instrucción. Evalúa la respuesta, detecta errores, ajusta el pedido. Ese proceso, que puede parecer menor, es el que marca diferencias en los resultados.
El “Anthropic Education Report: AI Fluency Index” sugiere que esta habilidad no se adquiere de inmediato. Requiere práctica, ensayo y, en muchos casos, un marco previo de conocimientos que permita interpretar lo que la herramienta devuelve.
En ese sentido, la diferencia entre usuarios no es únicamente técnica. Es también cognitiva y estratégica. Dos personas con acceso a la misma tecnología pueden obtener resultados distintos según cómo la utilicen.
Una tecnología que no impacta de la misma manera en todos
Los datos del informe muestran además que el uso de la IA se concentra en tareas de complejidad intermedia. No reemplaza por completo el trabajo experto ni se limita a funciones básicas. Se ubica en un punto intermedio donde potencia procesos ya existentes.
Ese comportamiento sugiere que la inteligencia artificial no actúa como un igualador automático. En algunos casos permite que usuarios con menos experiencia resuelvan tareas que antes no podían. En otros, amplifica la capacidad de quienes ya tenían una base sólida.
El resultado no es lineal. Es desigual.
A partir de estos datos, distintos análisis periodísticos plantean que la tecnología podría contribuir a ampliar diferencias entre usuarios. No como un efecto inevitable, sino como una consecuencia posible de cómo se distribuyen las habilidades necesarias para utilizarla.
Educación, trabajo y una brecha que todavía se está formando
Las implicancias empiezan a aparecer en dos ámbitos concretos: la educación y el trabajo. Si el rendimiento depende en parte de la fluidez en IA, entonces no alcanza con garantizar acceso a la tecnología. También es necesario desarrollar las capacidades para usarla.
Los informes no hablan de una “brecha” en términos cerrados. Pero sí describen condiciones en las que esa brecha podría consolidarse: diferencias en formación, en experiencia y en la manera de interactuar con los sistemas.
En ese escenario, la discusión deja de ser solo tecnológica. Pasa a ser educativa. Qué se enseña, cómo se enseña y quién accede a ese aprendizaje empieza a ser tan relevante como la herramienta en sí.
La inteligencia artificial no elimina las diferencias entre usuarios. Las expone. Y, en algunos casos, las amplifica. El modo en que esas diferencias evolucionen dependerá menos de la tecnología y más de cómo se la integre en los procesos de formación y trabajo.

El peso de los informes
Para entender el peso de estas conclusiones, es necesario mirar hacia Anthropic, la empresa de seguridad e investigación en inteligencia artificial con sede en San Francisco. Fundada en 2021 por exdirectivos de OpenAI, entre ellos Dario Amodei y Daniela Amodei, la compañía se ha posicionado como una de las principales impulsoras del enfoque de “IA constitucional”, aplicado en su familia de modelos Claude.
Los informes Anthropic Economic Index y AI Fluency Index— fueron publicados en distintas etapas entre 2025 y 2026 y se basan en el análisis de grandes volúmenes de interacciones reales para comprender cómo estas herramientas se integran en tareas concretas y cómo impactan en la productividad.
El informe AI Fluency Index pone el foco en la forma en que los usuarios interactúan con la inteligencia artificial. Allí se observa que los mejores resultados no dependen únicamente de dar una instrucción correcta, sino de la capacidad de desarrollar un proceso de intercambio: reformular pedidos, evaluar respuestas y ajustar el enfoque.
Por su parte, el Anthropic Economic Index analiza cómo estas dinámicas se traducen en el rendimiento. Sus datos muestran que la inteligencia artificial puede elevar el nivel base de ciertas tareas, facilitando el acceso a capacidades antes más complejas.

Con información de Infobae por Juan Mascardi.
