Este artículo tiene el mismo título y los mismos objetivos de la ponencia2 realizada en el I Simposio de Filosofía Acerca Del Dolor, e investiga más específicamente la viabilidad teórica de representar digitalmente el dolor a través de sistemas de inteligencia artificial.
En la ponencia, se destacaron los aspectos más prácticos y simulados de una eventual representación con base en valores a partir de relatos en chatbots. En este artículo, se parte de la cuestión fundamental y precedente a la aplicación del conocimiento: ¿es posible que algoritmos comprendan y representen significativamente la experiencia dolorosa humana? Para responder a esta cuestión, adoptamos como fundamento teórico la escisión establecida por David Hume entre constataciones factuales (el "es") y preceptos morales o éticos (el "debe ser"), argumentando que el dolor no constituye mera factualidad biológica, sino experiencia estructurada por valores duales que conectan la dimensión sensorial objetiva a la significación existencial subjetiva. De esta forma, se establece un abordaje diferente a la centralidad de la tradición fenomenológica, en las investigaciones del dolor o de las enfermedades.
A partir de la filosofía moral humeana, demostramos que valores ocupan posición central y conectora entre principios subjetivos y acciones objetivas, funcionando como elementos esenciales para la significación del dolor. Argumentamos que el dolor, como ruptura de la normalidad corporal, incorpora necesariamente evaluaciones morales que varían conforme contextos, circunstancias y perspectivas individuales. Esta complejidad exige que cualquier representación digital del dolor capture no apenas datos sensoriales, sino principalmente la cadena de valores duales (bueno/malo, deseable/indeseable, normal/anormal) que estructuran la experiencia dolorosa y moldean la agencia del sujeto que sufre, y que pueden representar la complejidad de un dolor.
El modelo humeano se revela particularmente adecuado para fundamentar sistemas de IA porque, tal como la razón humana en Hume, los algoritmos no poseen capacidad autónoma para generar valores morales, operando antes como razón instrumental al servicio de valores externamente suministrados. Si los valores estuvieren bien definidos, estructurados y jerarquizados, la "racionalidad" algorítmica podrá operar eficazmente en la representación del dolor. Demostramos esta viabilidad a través del análisis de sistemas de Aprendizaje por Refuerzo Profundo (como AlphaZero y MuZero, de la start-up Google Deepmind), que evidencian la capacidad de la IA de aprender a "racionalizar" en contextos complejos y aleatorios, partiendo de valores simples para desarrollar agencias sofisticadas.
La relevancia práctica de esta investigación se manifiesta en el enfrentamiento de la injusticia epistémica que aflige a enfermos, especialmente los crónicos, cuyos relatos de dolor frecuentemente no son validados adecuadamente en las relaciones médico-enfermo.
La representación digital del dolor, cuando bien sucedida, funciona como puente tecnológico entre el sufrimiento silencioso y las herramientas prácticas de gestión (coping), restaurando al enfermo control sobre su narrativa de salud. Más que instrumento de cuantificación, la digitalización del dolor puede constituirse como artefacto de justicia epistémica, validando perspectivas individuales dentro de contextos compartidos.
El desafío central que identificamos es desarrollar modelos que operen dentro de perspectivismo responsable: sistemas capaces de reconocer bases morales compartidas (el "suelo moral mínimo" grupal o comunitario) sin eliminar singularidades existenciales individuales. Argumentamos contra el relativismo radical, defendiendo antes la necesidad de estructuras que congreguen valores compartidos y componentes de individualidad. Este equilibrio entre lo universal y lo particular, entre correlaciones algorítmicas y causalidades científicas, entre factualidad y significación, constituye el camino más prometedor no apenas para la representación digital del dolor, sino para el desarrollo de sistemas de IA verdaderamente éticos y alineados a la existencia humana. El artículo concluye que la cuestión no es "si" tales sistemas son posibles, sino "cuándo" y "cómo" debemos estructurarlos para que sirvan al florecimiento humano.