El muro invisible de la Inteligencia artificial

Harvard descubre que la inteligencia artificial tiene un límite: no puede transferir expertise entre profesiones

spot_img

El discurso dominante sobre inteligencia artificial generativa en los últimos dos años ha estado construido sobre una promesa seductora: la democratización del expertise. Cualquier profesional, con las herramientas correctas, podría penetrar en dominios que antes le estaban vedados por su formación de origen. El abogado podría entender código. El ingeniero podría escribir con claridad ejecutiva. El analista financiero podría diseñar campañas de marketing.

La IA, según esta narrativa, prometía disolver las fronteras entre disciplinas y hacer portátil el conocimiento especializado. Un working paper de Harvard Business School viene a complicar esa narrativa con una evidencia que los entusiastas del optimismo tecnológico preferirían no ver: existe un “efecto muro” que limita severamente la capacidad de la IA para transferir expertise horizontal entre grupos ocupacionales.

Insiders y outsiders del conocimiento

Los investigadores Luca Vendraminelli y sus colegas del Harvard Business School diseñaron un experimento para medir algo preciso: la capacidad de la IA generativa para permitir que un profesional de una ocupación (“outsider”) realice tareas que normalmente corresponden a una ocupación diferente (“insider”). La hipótesis optimista diría que la IA puede cerrar esa brecha. Lo que el experimento encontró fue una imagen más matizada y más inquietante: la IA generativa es efectiva para cerrar brechas de conocimiento dentro de una misma familia ocupacional, pero encuentra un muro cuando el outsider debe cruzar hacia el dominio cognitivo de otra especialización. Las tareas que requieren no solo información sino la estructura de razonamiento, los marcos implícitos de evaluación y el juicio calibrado por la experiencia acumulada —lo que los sociólogos del trabajo llamarían el “conocimiento tácito” de una profesión— resisten la transferencia mediada por IA.

Publicidad

La jerarquía del saber que sobrevive

Lo que este hallazgo revela es una distinción que el discurso tecnológico tiende a colapsar: la diferencia entre acceso a información y capacidad de ejercer juicio. Un outsider asistido por IA puede obtener información sobre el dominio del insider, puede generar outputs superficialmente plausibles, puede responder preguntas de baja complejidad con competencia aceptable. Pero cuando la tarea requiere la evaluación de tradeoffs complejos, la detección de inconsistencias sutiles o la navegación de zonas de ambigüedad donde el juicio experto reemplaza a la regla, el outsider asistido por IA no alcanza el desempeño del insider. El expertise profundo —el que se construye con años de práctica deliberada en un dominio específico— sigue siendo, en gran medida, no delegable a la IA ni transferible entre personas vía IA.

Para el ejecutivo que está reconfigurando su fuerza laboral con la expectativa de que la IA le permitirá usar perfiles más genéricos en roles que antes requerían especialización, este hallazgo es una advertencia de calibración. La IA expande la frontera de lo que los generalistas pueden hacer, pero no la expande de manera uniforme ni ilimitada. Las especializaciones profundas —los dominios donde el juicio experto es irreemplazable— conservan su valor. Lo que cambia es el umbral: la IA eleva el piso del desempeño, pero no aplana el techo. El gap entre el experto verdadero y el generalista asistido por IA persiste, aunque en un punto más alto de la escala de competencia.

La pregunta que todo director de talento debería poder responder: ¿en qué roles de su organización el “efecto muro” de la IA implica que la especialización profunda sigue siendo un activo estratégico no sustituible? ¿Y en cuáles la IA ya ha reducido esa barrera a un nivel que cambia los criterios de contratación?

spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img

CONTENIDO RELACIONADO