La filosofía delegada a la inteligencia artificial

Un artículo del MIT advierte que las organizaciones que adoptan modelos de lenguaje sin definir sus valores terminan incorporando marcos éticos ajenos.

spot_img

El avance de la inteligencia artificial generativa reabre una discusión clásica del management: quién define el propósito de la organización. Un trabajo publicado por MIT Sloan Management Review —firmado por David Kiron y Michael Schrage— sostiene que, en muchas empresas, esa función comienza a desplazarse de los líderes hacia los modelos de lenguaje. El fenómeno no es explícito, pero sí sistemático.

La advertencia adquiere relevancia en un contexto en el que las herramientas de IA se integran a procesos críticos: redacción de políticas internas, evaluación de inversiones, diseño de estrategias y comunicación corporativa. La cuestión central no es técnica, sino conceptual: qué sistema de valores guía esas decisiones.

El trasfondo invisible de los modelos

El punto de partida del análisis es una premisa operativa: los modelos de lenguaje no son neutrales. Sus respuestas se construyen sobre patrones estadísticos derivados de grandes volúmenes de datos, en su mayoría producidos en entornos occidentales, anglosajones y profesionales.

Publicidad

Esa base condiciona la forma en que los sistemas interpretan dilemas éticos, prioridades estratégicas o conflictos organizacionales. En la práctica, cuando una empresa recurre a estas herramientas, no solo obtiene eficiencia operativa. También incorpora, de manera implícita, un marco de razonamiento.

El efecto es gradual. Una política de recursos humanos redactada con asistencia de IA, un informe estratégico estructurado por un modelo o una recomendación sobre asignación de capital pueden reflejar supuestos que no fueron definidos por la organización.

La externalización de los valores

El argumento de Kiron y Schrage plantea un desplazamiento menos visible que la automatización de tareas: la externalización de la filosofía empresarial. Según el artículo, las compañías que adoptan IA sin haber explicitado sus propios principios terminan delegando ese núcleo en desarrolladores y datasets que no fueron evaluados por sus órganos de gobierno.

La cuestión no reside en errores técnicos. Por el contrario, el riesgo aparece cuando las decisiones son correctas desde el punto de vista operativo, pero responden a criterios ajenos. Esa divergencia puede permanecer oculta durante largos períodos, hasta que se manifiesta en conflictos reputacionales, laborales o regulatorios.

En ese sentido, el trabajo introduce una distinción relevante: no se trata de si la IA toma decisiones adecuadas, sino de si esas decisiones son coherentes con la identidad de la organización.

El management como práctica deliberada

La expansión de la inteligencia artificial redefine el rol de la dirección. Si las tareas cognitivas rutinarias pueden ser ejecutadas por sistemas automatizados, el diferencial de los líderes se desplaza hacia la definición de criterios.

Esto implica recuperar una dimensión que había quedado relegada: el management como práctica filosófica. Definir el propósito, establecer principios de decisión y delimitar qué ámbitos pueden delegarse y cuáles no se convierten en funciones centrales.

El planteo remite a una idea formulada por Peter Drucker a mediados del siglo XX: la primera responsabilidad del management es responder para qué existe la organización. En el contexto actual, esa definición adquiere un carácter operativo. Sin un marco explícito, las decisiones tienden a alinearse con el “default” del sistema utilizado.

Un dilema con impacto local

En economías con alta volatilidad, como la argentina, la tentación de adoptar herramientas que prometen velocidad y precisión es mayor. La presión por decidir en entornos inciertos favorece la delegación de procesos a sistemas automatizados.

Sin embargo, el planteo del MIT sugiere que esa ventaja puede tener un costo menos visible. La incorporación de IA sin una arquitectura de valores definida puede generar inconsistencias en la toma de decisiones, especialmente en áreas sensibles como recursos humanos, relaciones con clientes o posicionamiento institucional.

La pregunta que emerge no es tecnológica, sino organizacional: qué decisiones deben permanecer bajo control humano y cuáles pueden ser delegadas sin alterar la identidad de la empresa.

La frontera que define la organización

El artículo concluye con una advertencia implícita. En ausencia de definiciones explícitas, la frontera entre lo delegable y lo indelegable no la traza el directorio, sino el propio sistema.

En ese escenario, la inteligencia artificial deja de ser una herramienta para convertirse en un actor que condiciona el modo en que la organización piensa y actúa. No por diseño, sino por omisión.

La cuestión, entonces, no es si las empresas utilizarán inteligencia artificial. Esa adopción ya está en curso. El interrogante es otro: si serán las organizaciones las que definan los criterios de uso, o si esos criterios quedarán determinados por los modelos que emplean.

spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img

CONTENIDO RELACIONADO