Inteligencia artificial y automatización en la toma de decisiones organizacionales y sociales


La inteligencia artificial (IA) y la automatización se han convertido en elementos clave en los procesos de toma de decisiones tanto en el ámbito organizacional como en el social. La IA se refiere a sistemas de software capaces de realizar tareas que normalmente requieren inteligencia humana (como aprender, razonar o resolver problemas), mientras que la automatización implica delegar tareas rutinarias o complejas a máquinas o algoritmos. En combinación, estas tecnologías prometen decisiones más informadas, eficientes y objetivas, transformando desde la gestión empresarial hasta las políticas públicas. De hecho, su adopción se ha acelerado en años recientes: se estima que 88% de las organizaciones a nivel mundial ya utilizan IA en al menos una de sus funciones de negocio (McKinsey, 2022, citado en Uzialko, 2025).

Sin embargo, junto con las oportunidades surgen desafíos significativos. La integración de sistemas inteligentes en la toma de decisiones conlleva preocupaciones sobre sesgos algorítmicos, transparencia, ética y la sustitución del juicio humano. En su forma actual, la IA aún dista de ser infalible: no puede tomar decisiones de manera totalmente autónoma que sean a la vez precisas, aceptables y justas sin intervención humana (Steyvers & Kumar, 2024). Por ello, es crucial analizar cómo la IA está impactando decisiones en contextos organizacionales (empresas, instituciones) y sociales (gobierno, políticas públicas, sociedad en general), evaluando tanto sus beneficios como los retos que impone. A continuación, se explora esta dualidad a nivel global, para luego examinar brevemente el caso de Costa Rica en este ámbito.

IA y automatización en las decisiones organizacionales a nivel global

En el entorno empresarial actual, la IA se ha posicionado como una herramienta estratégica para optimizar la toma de decisiones. La capacidad de analizar grandes volúmenes de datos y generar recomendaciones casi en tiempo real ha revolucionado áreas como la planificación, las finanzas, el marketing, los recursos humanos y las operaciones. Los sistemas de aprendizaje automático (machine learning) y recientemente la IA generativa (como ChatGPT) permiten identificar patrones ocultos y predecir resultados futuros con mayor precisión que los métodos tradicionales. Por ejemplo, las empresas que emplean analítica predictiva basada en IA han logrado reducir los errores de pronóstico en un 20% a 50% en comparación con técnicas convencionales (Business News Daily, 2025) (Uzialko, 2025). En la gestión de cadenas de suministro, herramientas de IA optimizan rutas logísticas y gestión de inventarios, reduciendo costos DHL reportó un 15% de disminución en costos logísticos tras implementar IA para optimizar rutas de entrega (Business News Daily, 2025) (Uzialko, 2025) y agilizando tiempos de entrega.

En el área de recursos humanos, la IA también está habilitando decisiones más informadas. La aplicación de técnicas de people analytics permite identificar características de alto desempeño y predecir el rendimiento de candidatos, apoyando la selección y desarrollo de talento basado en datos. Durante un foro empresarial, se destacó que la automatización mediante IA en RR.HH. facilita segmentar empleados (por ejemplo, usando modelos de clustering) para diseñar estrategias de retención personalizadas, lo que mejora la productividad y la rentabilidad del negocio (AmCham, 2024). Empresas globales ya utilizan asistentes virtuales y chatbots internos para responder consultas de empleados o gestionar calendarios, liberando tiempo para que el personal se enfoque en tareas estratégicas. Asimismo, la inteligencia de negocios impulsada por IA ayuda a los directivos a evaluar distintos escenarios de mercado o financieros a través de simulaciones, mejorando la planificación estratégica con mayor certeza (Escuela de Negocios ADEN, 2023).

Los beneficios de la IA organizacional se reflejan también en cifras macro. Un análisis de McKinsey (2023) estima que la IA podría aportar 4,4 billones de dólares en crecimiento de productividad a largo plazo mediante casos de uso corporativos (Mayer et al., 2025). No es de extrañar, entonces, que 92% de las empresas planeen aumentar sus inversiones en IA en los próximos tres años (Mayer et al., 2025). Sin embargo, alcanzar el verdadero potencial de estas tecnologías requiere más que inversión; implica integración profunda en procesos y cultura organizacional. Actualmente, solo 1% de las compañías se consideran en un estado de “madurez” avanzada en IA, es decir, con la IA plenamente integrada en sus flujos de trabajo y generando resultados sustanciales (Mayer et al., 2025). Esto sugiere que la mayoría de organizaciones todavía están en etapas tempranas de adopción, experimentando o implementando proyectos piloto sin aprovechar a fondo todas las capacidades.

Desafíos clave. Varios obstáculos explican por qué muchas empresas no han madurado en el uso de IA. Uno de los principales es la calidad y disponibilidad de datos: sin datos confiables y bien estructurados, los algoritmos pueden producir resultados poco útiles o sesgados. Se ha reportado que 68% de las organizaciones citan la mala calidad de datos como su mayor desafío en IA (IDC, 2024, citado en Business News Daily, 2025). A esto se suma la brecha de talento: hay escasez de expertos en ciencia de datos, aprendizaje automático e IA, lo que dificulta desarrollar e implementar soluciones a escala. Otro reto común es la resistencia al cambio dentro de las organizaciones; adoptar decisiones automatizadas requiere confianza en las recomendaciones de la máquina, reingeniería de procesos y, muchas veces, capacitación intensa del personal para trabajar con las nuevas herramientas. De hecho, el cambio en los roles laborales genera inquietudes: en una encuesta internacional de 2024-2025, 48% de líderes empresariales inicialmente temían que la IA reemplace a las personas, aunque ese porcentaje disminuyó ligeramente al avanzar la implementación (Orgvue, 2025).

Un aspecto crítico es cómo equilibrar la automatización con la fuerza laboral humana. Algunas empresas se apresuraron a automatizar procesos tomando decisiones drásticas sobre su personal. La investigación anual de Orgvue (plataforma de planificación organizacional) reveló que 39% de los altos ejecutivos encuestados despidieron empleados tras implementar IA en sus operaciones; y de esos, 55% admite ahora que esas decisiones de despido fueron equivocadas o apresuradas (Orgvue, 2025). Es decir, más de la mitad reconoce haber sobrestimado la capacidad de la IA o subestimado el aporte humano, lo que los llevó a eliminar puestos de manera injustificada. Estos resultados evidencian la importancia de no automatizar sin entender plenamente las implicaciones: la IA puede aumentar la productividad, pero no sustituye de inmediato la experiencia humana, y remover talento sin una estrategia clara puede ser perjudicial (Shaw, 2025).

Por fortuna, parece haber un aprendizaje en curso. Cada vez más organizaciones optan por estrategias de upskilling y reskilling para preparar a sus empleados a colaborar con la IA en lugar de ser reemplazados. Un 80% de las empresas en el estudio de Orgvue planea capacitar a su personal para el uso efectivo de IA, y 41% ha incrementado sus presupuestos de formación en esta área (Orgvue, 2025). Esta tendencia refleja una visión de la IA como complemento al trabajo humano: la mayor promesa está en potenciar la colaboración hombre-máquina, donde la inteligencia artificial maneja tareas de análisis masivo o repetitivo, y las personas aportan creatividad, juicio crítico y supervisión ética. Investigaciones recientes enfatizan que la sinergia adecuada puede lograr resultados superiores a los obtenidos por IA o humanos por separado (Steyvers & Kumar, 2024). Para ello, se requieren modelos de interacción donde los humanos comprendan las capacidades y límites de los algoritmos (tener buenos “modelos mentales” de la IA), y sepan cuándo confiar en la recomendación automatizada y cuándo aplicar criterio propio (Steyvers & Kumar, 2024).

Asimismo, se reconoce la importancia de la ética y la transparencia en las decisiones automatizadas. Muchas empresas líderes están estableciendo políticas de IA responsable, que incluyen pautas como: informar a clientes y empleados cuando una decisión es asistida por IA, auditar algoritmos para detectar sesgos o errores, e involucrar revisiones humanas en decisiones de alto impacto (Business News Daily, 2025). Estos esfuerzos buscan alinear las aplicaciones de IA con los valores y objetivos humanos, evitando que la búsqueda de eficiencia comprometa la equidad o la confianza. Después de todo, si la IA no está alineada con las metas y valores de sus usuarios, pueden ocurrir resultados indeseados (Steyvers & Kumar, 2024). En resumen, en el ámbito organizacional global la IA ya mejora decisiones en múltiples frentes desde predecir la demanda del mercado hasta personalizar la relación con el cliente, pero su aprovechamiento pleno depende de superar retos de integración tecnológica, cultural y de gobernanza dentro de las empresas.

IA en la toma de decisiones sociales y públicas

Más allá de las empresas, la inteligencia artificial y la automatización están influyendo la forma en que se toman decisiones en contextos sociales, gubernamentales y de política pública. Gobiernos y organismos públicos en todo el mundo han comenzado a adoptar algoritmos como herramientas de apoyo en ámbitos diversos: seguridad ciudadana, justicia penal, bienestar social, salud pública, educación, administración fiscal, entre otros. El atractivo es similar al del sector privado: lograr decisiones más rápidas, objetivas y basadas en evidencia. Por ejemplo, en sistemas judiciales sobrecargados, la digitalización y automatización de procesos puede lograr mejoras dramáticas en eficiencia; en Brasil, la introducción de sistemas digitales (incluyendo IA básica para gestionar casos) redujo en 87% el tiempo de resolución de casos judiciales en ciertas instancias. En salud, aplicaciones de IA ayudan a autoridades a predecir brotes epidemiológicos o asignar recursos hospitalarios de forma óptima. En ciudades, algoritmos de control de tráfico o de infraestructura pueden automatizar decisiones para mejorar la movilidad urbana o la distribución de energía.

No obstante, cuando la IA entra en la esfera pública, los riesgos y dilemas éticos se vuelven especialmente críticos, pues estas decisiones afectan derechos de las personas y suelen involucrar principios de justicia social. Una de las promesas iniciales de la IA gubernamental era mitigar los sesgos humanos en decisiones de alto impacto (por ejemplo, eliminando prejuicios conscientes o inconscientes de funcionarios en otorgamiento de beneficios, evaluaciones policiales o sentencias judiciales). De hecho, las tecnologías como el policiamiento predictivo se introdujeron en EE.UU. "como una respuesta a la discriminación racial en la vigilancia policial, ofreciendo una justificación aparentemente neutral y objetiva para la focalización policial en ciertas comunidades" (Ferguson, 2017, citado en Alon-Barkat & Busuioc, 2023). Es decir, se confiaba en que un algoritmo, al basarse solo en datos, sería más justo que un humano propenso a prejuicios.

Lamentablemente, numerosas experiencias han demostrado que estos sistemas pueden heredar e incluso agravar sesgos existentes. Los algoritmos trabajan con datos históricos que, en lo social, suelen reflejar inequidades pasadas. Así, en vez de neutralidad, a veces terminan reforzando estereotipos o discriminando a grupos vulnerables. Un estudio experimental en la administración pública neerlandesa encontró que los tomadores de decisiones (funcionarios) tendían a seguir recomendaciones algorítmicas solo cuando estas calzaban con estereotipos preexistentes, fenómeno llamado "adherencia selectiva" (Alon-Barkat & Busuioc, 2023). Esto implica que, si un algoritmo sugiere algo que confirma un sesgo (por ejemplo, señalando mayor riesgo en un grupo históricamente estigmatizado), existe peligro de que se adopte sin cuestionamiento, legitimando la discriminación bajo la apariencia de objetividad. Por otro lado, el mismo estudio no halló una confianza ciega en la IA por encima de la opinión humana (“sesgo de automatización”) en general, lo cual sugiere que los funcionarios aún sopesan las recomendaciones, sobre todo tras escándalos que elevan la conciencia sobre los sesgos algorítmicos (Alon-Barkat & Busuioc, 2023).

Casos concretos han encendido las alarmas sobre los peligros de delegar decisiones sociales a algoritmos opacos. Un ejemplo notorio ocurrió en los Países Bajos, donde un algoritmo gubernamental de detección de fraude en subsidios para cuidado de menores causó un escándalo masivo: miles de familias (muchas de origen inmigrante) fueron acusadas falsamente de fraude, obligadas a devolver ayudas y sufriendo deudas y perjuicios enormes, todo por errores del sistema automatizado que perfilaba injustamente a ciertos solicitantes (Meaker, 2024). En el Reino Unido, en 2020, un algoritmo utilizado para asignar calificaciones estudiantiles (ante la cancelación de exámenes por la pandemia) resultó penalizando a alumnos de colegios públicos más que a los de colegios privados, reproduciendo sesgos de clase, lo que llevó a protestas y finalmente a descartar sus resultados.

En Francia, recientemente (2024) organizaciones de derechos humanos llevaron al gobierno a tribunales por el uso de un algoritmo que detecta errores o fraudes en pagos de bienestar social, alegando que discrimina a personas con discapacidad y madres solteras (poblaciones que aparentemente recibían “puntajes de riesgo” más altos solo por su situación). Es la primera vez que en Francia se impugna legalmente un algoritmo público por sesgo, y el caso subraya la tensión entre la eficiencia tecnológica y los derechos individuales (Meaker, 2024). Los críticos señalan que esta herramienta, en aras de encontrar fraudes, somete a una vigilancia intensiva y desproporcionada justamente a los ciudadanos más precarios, socavando su privacidad y dignidad (Meaker, 2024). Un portavoz de una ONG francesa resumió la preocupación: “usar algoritmos en el ámbito de la política social conlleva muchos más riesgos que beneficios”, afirmando no haber visto ningún ejemplo claro, ni en Europa ni en el mundo, donde estos sistemas hayan producido resultados positivos sin perjudicar a alguien (Soizic Pénicaud, citada en Meaker, 2024).

Este tipo de controversias ha impulsado una reacción en las políticas públicas a nivel internacional. La Unión Europea, consciente de los peligros, aprobó recientemente el Reglamento de IA (AI Act) que entrará en vigor en 2025 y que, entre otras medidas, prohíbe explícitamente la práctica del “scoring social”. Es decir, quedará vetado el uso de sistemas de IA para evaluar de manera general la conducta o características de las personas con el fin de otorgar o denegar servicios, beneficios o derechos (una práctica asociada, por ejemplo, al sistema de “crédito social” que China emplea). Muchos de los algoritmos de bienestar social o policiacos podrían considerarse scoring social en la práctica, ya que asignan puntajes de riesgo o cumplimiento a individuos para decidir si merecen escrutinio extra o sanciones (Meaker, 2024). Con la nueva regulación, los gobiernos tendrán que justificar muy bien el uso de IA en ámbitos sensibles y asegurar su transparencia y equidad, bajo pena de ilegalidad.

Ante este panorama, organismos internacionales y académicos enfatizan la importancia de un marco ético y de gobernanza para la IA en el sector público. La UNESCO, por ejemplo, emitió en 2021 una Recomendación sobre la Ética de la Inteligencia Artificial, instando a los países a adoptar principios de transparencia, justicia, rendición de cuentas y bienestar social en cualquier sistema automatizado que afecte a personas. También subrayó la necesidad de fortalecer las competencias digitales de los funcionarios públicos, para que puedan entender y supervisar las herramientas de IA (Unesco, 2022; Umaña, 2025). Esto implica capacitar en alfabetización de datos, análisis ético y toma de decisiones basada en evidencia a quienes implementan y usan IA gubernamental. Al fin y al cabo, la última responsabilidad de decisiones justas recae en los humanos: se recomienda que la IA actúe como asistente y no reemplazo total del juicio humano en políticas que afectan derechos (Steyvers & Kumar, 2024).

En síntesis, la IA y la automatización tienen un enorme potencial transformador en lo social: podrían mejorar la eficiencia del Estado, detectar y corregir antes problemas complejos (desde epidemias hasta corrupción), personalizar servicios públicos y hacer más objetiva la aplicación de normas. Pero estos beneficios solo se materializarán si se abordan proactivamente los riesgos de sesgo, falta de explicabilidad y daños a poblaciones vulnerables. Las experiencias internacionales están dejando lecciones claras: se requieren leyes, estándares éticos y supervisión humana sólida para garantizar que la IA sirva al interés público sin menoscabar derechos ni profundizar desigualdades. Muchos países están apenas aprendiendo a equilibrar esta balanza, ajustando o frenando proyectos de automatización polémicos e invirtiendo en capacidades institucionales para una IA verdaderamente responsable y centrada en las personas.

El caso de Costa Rica: avances y perspectiva

En Costa Rica, al igual que en otras naciones, la conversación sobre IA y automatización en la toma de decisiones ha cobrado relevancia en años recientes. A pesar de ser un país pequeño, Costa Rica busca posicionarse como referente regional en la adopción ética y efectiva de la IA, reconociendo tanto sus oportunidades para el desarrollo como la necesidad de mitigar riesgos. El país ha dado pasos importantes en la formulación de políticas y en proyectos concretos que ilustran el impacto de estas tecnologías en el contexto local.

Política pública y estrategia nacional. Un hito destacado fue la presentación, en octubre de 2024, de la Estrategia Nacional de Inteligencia Artificial (ENIA) 2024-2027 por parte del Ministerio de Ciencia, Innovación, Tecnología y Telecomunicaciones (MICITT). Con este lanzamiento, Costa Rica se convirtió en el primer país de Centroamérica con una política pública dedicada a guiar el uso, adopción y desarrollo de la IA (Brenes Mora, 2024). La ENIA establece un marco detallado con principios rectores éticos, alineados con recomendaciones internacionales: promueve el uso responsable y centrado en el ser humano de la IA, enfatizando valores como la dignidad, la supervisión humana, la transparencia, la equidad y la inclusión social (MICITT, 2024). Estos principios buscan asegurar que la transformación digital potenciada por IA "no deje a ningún costarricense rezagado" y que los algoritmos se utilicen para reducir desigualdades**, no para ampliarlas (Brenes Mora, 2024).

La estrategia nacional costarricense también prioriza el fortalecimiento de la infraestructura digital (por ejemplo, el despliegue de redes 5G necesarias para soportar soluciones de IA a gran escala) y la creación de un Centro Nacional de Excelencia en IA, que impulsará la investigación, desarrollo e innovación en este campo. Asimismo, contempla el desarrollo de un marco normativo específico para IA, de modo que haya pautas técnicas y éticas claras para su implementación en el país. Este esfuerzo refleja el compromiso de Costa Rica con una visión de la IA como herramienta de mejora social: autoridades nacionales han declarado que la IA tiene el potencial de "revolucionar la forma en que brindamos servicios a la ciudadanía, haciendo el Estado más eficiente, transparente y cercano a las personas" (Vega, 2024, citado en Brenes Mora, 2024). Para realizar esa visión, la ENIA define ejes estratégicos que incluyen la capacitación del talento humano (reskilling de trabajadores para la era digital), la articulación con regiones fuera de la capital para descentralizar los beneficios de la IA, y la participación de Costa Rica en foros internacionales de gobernanza de IA. En conjunto, estas acciones sitúan a Costa Rica a la vanguardia regional en la planificación de una IA ética y segura.

Adopción en sectores clave. En la práctica, Costa Rica ya cuenta con ejemplos tangibles de IA apoyando la toma de decisiones tanto en el sector público como en el privado:

  • Salud pública: desde 2010 se desarrolla el proyecto EDUS (Expediente Digital Único en Salud) de la Caja Costarricense de Seguro Social, que digitaliza la información médica de los ciudadanos. En años recientes, EDUS ha incorporado tecnologías de IA para mejorar la gestión y predicción en salud por ejemplo, analizando datos para predecir demanda de servicios o identificar pacientes de alto riesgo contribuyendo a una atención más personalizada y eficiente (CCSS, 2021). Este sistema atiende actualmente a cerca del 78% de la población costarricense, y ha demostrado su utilidad enfrentando retos como la pandemia de COVID-19 (Escuela de Negocios ADEN, 2023). La IA en salud en Costa Rica ayuda en la toma de decisiones clínicas y administrativas, priorizando recursos y optimizando citas médicas para reducir tiempos de espera.
  • Finanzas y banca: Los bancos costarricenses han adoptado IA para personalizar la atención al cliente (por ejemplo, recomendando productos financieros según el perfil del usuario), mejorar la detección de fraudes y automatizar procesos mediante chatbots y asistentes virtuales (Escuela de Negocios ADEN, 2023). Estas aplicaciones permiten decisiones más rápidas en aprobación de créditos, detección de transacciones anómalas en tiempo real y resolución de consultas frecuentes de usuarios sin intervención humana directa. En el ámbito de seguros, se emplean algoritmos para evaluar riesgos de pólizas de manera más objetiva. Todo ello incrementa la eficiencia operativa y la capacidad de las entidades financieras para manejar grandes volúmenes de datos de clientes.
  • Pequeñas y medianas empresas (PyMEs): Sorprendentemente, la penetración de la IA no se limita a grandes corporaciones. Un reporte del sector indicó que aproximadamente 50% de las PyMEs en Costa Rica ya utilizan algún tipo de inteligencia artificial, por sencillo que sea, y un 59% de esas empresas emplean específicamente IA generativa para crear soluciones innovadoras (Escuela de Negocios ADEN, 2023). Entre las aplicaciones citadas están asistentes virtuales para servicio al cliente en línea, así como herramientas de capacitación digital para empleados. Esto sugiere que incluso los negocios más pequeños están encontrando valor en la IA por ejemplo, utilizando plataformas con IA para mercadeo en redes sociales, o software de predicción de ventas lo cual impulsa la competitividad y la innovación en el país. Costa Rica, con su tradición de inversión en educación e infraestructura tecnológica, parece estar facilitando que la IA sea accesible también a emprendedores y PyMEs.
  • Innovación comunitaria: En zonas rurales costarricenses se han creado Laboratorios de Innovación Comunitaria (LINC), algunos con apoyo de agencias de la ONU, donde jóvenes y emprendedores aplican IA para resolver problemas locales (Naciones Unidas CR, 2023). Por ejemplo, se desarrolló un prototipo de silbato de emergencia con IA que optimiza la alerta en caso de erupciones volcánicas (analizando acústica para maximizar alcance), o se están usando herramientas generativas para diseñar piezas y repuestos reduciendo costos de manufactura local. Estas iniciativas descentralizadas demuestran cómo la automatización e IA pueden empoderar decisiones a nivel comunitario los habitantes identifican necesidades y, con apoyo tecnológico, crean soluciones específicas, fortaleciendo así el desarrollo tecnológico inclusivo.
  • Industria y manufactura: Empresas multinacionales con presencia en Costa Rica, como Boston Scientific (dispositivos médicos), están aplicando IA en sus procesos productivos. En particular, se utilizan algoritmos inteligentes para interpretar datos de sensores en sus equipos médicos, generando reportes personalizados y alertas para médicos, lo que mejora la toma de decisiones clínicas (p. ej., ajustar un tratamiento) basadas en información en tiempo real (Escuela de Negocios ADEN, 2023). En manufactura en general, compañías en Costa Rica implementan mantenimiento predictivo asistido por IA: los sistemas monitorean maquinaria y deciden cuándo se requiere mantenimiento antes de que ocurra una falla, evitando tiempos muertos costosos. También hay ejemplos de edificios inteligentes que, mediante automatización, ajustan consumo energético o climatización según datos y preferencias aprendidas. Todo esto indica que la toma de decisiones automatizada está permeando distintos sectores productivos, elevando la eficiencia y reduciendo errores humanos.

Pese a estos avances, Costa Rica también reconoce sus desafíos para la adopción plena de IA en decisiones organizacionales y sociales. Varios diagnósticos señalan brechas de talento especializado (falta de suficientes ingenieros de datos, científicos de IA formados localmente) y limitaciones en infraestructura y datos (por ejemplo, la necesidad de consolidar bases de datos gubernamentales confiables y accesibles, o de invertir en conectividad fuera del Valle Central). Culturalmente, existe cierta resistencia al cambio tecnológico en instituciones públicas, donde la innovación a veces choca con estructuras burocráticas tradicionales (Umaña, 2025). Para enfrentar estos retos, se han emprendido acciones como: programas de capacitación en habilidades digitales para funcionarios públicos, incorporación de contenidos de IA en la educación superior (universidades han abierto posgrados en ciencia de datos e IA aplicada a negocios), y alianzas público-privadas para transferencia de conocimiento en IA.

En línea con la recomendación UNESCO, Costa Rica ha puesto énfasis en la formación del funcionariado. Por ejemplo, se propone articular programas interdisciplinarios en IA y gobierno digital en la academia, y el sector privado está colaborando con iniciativas de entrenamiento en nuevas tecnologías para el sector público (Umaña, 2025). Todo esto con miras a que las decisiones asistidas por IA en el Estado sean tomadas por personas que entienden cómo funcionan los algoritmos, sus fortalezas y riesgos, fomentando así un uso más consciente y confiable.

En resumen, Costa Rica se perfila como un país proactivo en integrar la IA a la toma de decisiones, manteniendo un equilibrio entre adopción tecnológica y responsabilidad social. Ha logrado casos de éxito en sectores críticos (salud, finanzas, manufactura) y ha establecido una hoja de ruta estratégica (ENIA) para ampliar esos beneficios de manera inclusiva y ética. Aunque persisten desafíos en talento, infraestructura y difusión a todos los sectores, la experiencia costarricense hasta ahora demuestra que incluso economías emergentes pueden beneficiarse de la IA en la toma de decisiones siempre que exista una visión país clara, coordinación multisectorial y un compromiso con la ética y la capacitación.

Conclusiones

La irrupción de la inteligencia artificial y la automatización está redefiniendo la forma en que se toman decisiones tanto en organizaciones como en la sociedad en general. A nivel global, las empresas han comenzado a apoyar e incluso delegar decisiones en sistemas de IA, aprovechando su capacidad para procesar datos masivamente y detectar patrones que superan la intuición humana. Esto ha derivado en mejoras sustanciales de eficiencia, precisión y velocidad en decisiones empresariales: desde pronosticar demanda, optimizar cadenas de suministro, seleccionar personal idóneo, hasta personalizar interacciones con clientes. Paralelamente, gobiernos y entidades públicas exploran la IA para hacer más objetivas y eficientes sus decisiones, en ámbitos tan variados como la asignación de recursos sociales, la seguridad ciudadana o la administración de justicia.

No obstante, esta revolución en la toma de decisiones conlleva una gran responsabilidad. Los casos analizados ponen de relieve que la IA no es una panacea neutral: un algoritmo es tan bueno como la calidad de los datos y los objetivos con que se le diseñe. Sin los debidos cuidados, la automatización puede perpetuar o amplificar injusticias y errores. Por ello, la intervención humana informada y ética sigue siendo indispensable. La evidencia sugiere que los mejores resultados surgen de una colaboración inteligente entre humanos e IA: allí donde la máquina aporta su fuerza analítica y el humano su contexto, sentido común y valores. Es crucial mantener al humano “en el circuito” de decisiones de alto impacto, ya sea validando la recomendación de un algoritmo en una empresa o supervisando un dictamen automatizado en el sector público (Steyvers & Kumar, 2024).

En el ámbito organizacional, el camino hacia el éxito con IA requiere visión estratégica y cambio cultural: líderes comprometidos con la transformación digital, inversión en datos de calidad, apertura al cambio y sobre todo capacitación continua de la fuerza laboral para que adopte la IA como aliada. Las compañías más avanzadas han aprendido de tropiezos iniciales como despidos apresurados o proyectos de IA sin retorno claro y ahora se enfocan en integrar la IA responsablemente, midiendo su impacto real en el negocio y ajustando la ruta cuando es necesario. La toma de decisiones automatizada debe implementarse gradualmente, evaluando caso por caso dónde agrega valor y dónde es preferible la intervención humana, y siempre con mecanismos de retroalimentación y mejora continua.

En el ámbito social y gubernamental, la introducción de IA debe venir acompañada de marcos regulatorios robustos y transparencia. Los ciudadanos necesitan confiar en que cualquier decisión que les afecte sea la aprobación de un crédito, la asignación de un beneficio o la evaluación de riesgo en seguridad se toma de forma justa y explicable, no por una “caja negra” incomprensible. De ahí la importancia de iniciativas como la regulación europea de IA, las estrategias nacionales (como la de Costa Rica) y las guías éticas internacionales. Compartir mejores prácticas y lecciones aprendidas entre países será fundamental para evitar los errores ya cometidos y fomentar usos de la IA que realmente redunden en bien público (por ejemplo, en salud preventiva, respuesta a desastres, planificación urbana sostenible, etc.).

En conclusión, IA y automatización están aquí para quedarse en los procesos decisorios. Su papel será cada vez más protagónico a medida que la tecnología avance. La diferencia entre un futuro donde estas herramientas amplifiquen lo mejor de nuestras decisiones, o uno donde generen nuevos problemas, depende de cómo las encausemos hoy. Un enfoque centrado en el ser humano que priorice la ética, la equidad y la transparencia permitirá que la IA potencie la inteligencia colectiva en organizaciones y sociedades, en lugar de reemplazarla. Como han señalado expertos, la clave está en “pensar en grande y avanzar con audacia, pero de forma responsable” (Mayer et al., 2025), asegurando que las decisiones automatizadas sigan reflejando nuestros valores y objetivos comunes. Costa Rica, con su apuesta por una IA humanista, y las tendencias globales de regulación y capacitación, muestran un camino esperanzador hacia ese equilibrio, donde la inteligencia artificial sea un instrumento para el bien común y la toma de decisiones más acertadas, inclusivas y eficaces en todos los niveles.

Referencias

  • Alon-Barkat, S., & Busuioc, M. (2023). HumanAI Interactions in Public Sector Decision Making: “Automation Bias” and “Selective Adherence” to Algorithmic Advice. Journal of Public Administration Research and Theory, 33(1), 153169.
  • AmCham Costa Rica (Cámara Costarricense-Norteamericana de Comercio). (2024, 24 de octubre). IA y Data Science: tecnologías optimizan la toma de decisiones y rediseñan la gestión del talento. [Artículo en línea].
  • Brenes Mora, S. (2024, 24 de octubre). Micitt lanza primera política pública sobre uso y desarrollo de Inteligencia Artificial. Delfino.cr.
  • Escuela de Negocios ADEN. (2023). Aplicaciones y oportunidades de la IA en Costa Rica. ADEN Business Magazine.
  • Gartner. (2025, 25 de junio). Gartner Predicts Over 40% of Agentic AI Projects Will Be Canceled by End of 2027 [Comunicado de prensa]. Gartner, Inc.
  • Mayer, H., Yee, L., Chui, M., & Roberts, R. (2025, 28 de enero). Superagency in the workplace: Empowering people to unlock AI’s full potential. McKinsey & Company (Informe).
  • Meaker, M. (2024, 16 de octubre). Algorithms Policed Welfare Systems For Years. Now They're Under Fire for Bias. WIRED.
  • Orgvue. (2025, 29 de abril). 55% of businesses admit wrong decisions in making employees redundant when bringing AI into the workforce [Informe de encuesta]. Orgvue News.
  • Steyvers, M., & Kumar, A. (2024). Three Challenges for AI-Assisted Decision-Making. Perspectives on Psychological Science, 19(5), 722734.
  • Umaña Cubillo, J. (2025, 29 de septiembre). Vox experta: Inteligencia artificial y transformación digital  Competencias clave para el funcionariado público costarricense. Universidad de Costa Rica, Opinión UCR.
  • Uzialko, A. (2025, 11 de noviembre). How Artificial Intelligence Will Transform Businesses. Business News Daily.

Artificial Intelligence and Automation in Organizational and Social Decision-Making: Ethical Challenges, Data-Driven Governance, and the Costa Rica Perspective

This article examines how artificial intelligence and automation are transforming organizational and social decision-making worldwide. It analyzes their impact on data-driven management, public governance, and institutional efficiency, while highlighting ethical risks such as algorithmic bias, transparency, and accountability. Using global evidence and a focused discussion on Costa Rica, the article explores how emerging strategies, regulation, and human-centered approaches can ensure that AI supports informed, fair, and responsible decisions rather than replacing human judgment.

Comentarios

Tal vez te interese:

Los principales desafíos de Recursos Humanos: talento, diversidad, digitalización y liderazgo

Transformación digital e inteligencia artificial: la tecnología no hace magia

Inteligencia artificial y la educación superior en Latinoamérica: Modelos de docencia y transformación institucional, con referencia al caso costarricense (2022–2025)