Cuando hacer IAs éticamente buenas es simplemente hacer IAs técnicamente buenas

Por Marcelo Rinesi

La mayoría de los problemas éticos en IA son efectos secundarios de problemas de ingeniería. Esto no significa que no sean problemas éticos: si tu puente se cae y mata gente porque intentaste ahorrar dinero utilizando materiales baratos, eso es un problema ético. Pero es un problema que puede evitarse utilizando los materiales adecuados, con una ingeniería correcta, sin tener que inventar un «puente ético» que no se caiga o crear un Comité de Ética de Puentes dentro de la empresa constructora. El puente no tenía un problema ético, sino las personas que gestionaban el proyecto.

No existe una taxonomía completa de los problemas éticos en IA, y a medida que más de nuestro mundo se construya con, sea dirigido por, o simplemente se llame IA, será más difícil construir una. Los siguientes son sólo un par de ejemplos de cuestiones éticas en la IA que son más bien  efectos secundarios éticamente cuestionables de una ingeniería inadecuada.

Sesgos en la captura de datos

Este es el problema más conocido: si tu conjunto de datos es un reflejo sesgado del mundo, cualquier modelo entrenado con esos datos que no tenga en cuenta estos sesgos los reproducirá. Las herramientas para hacer frente a este problema también son bien conocidas por ejemplo data augmentation, o incluso la menos glamorosa pero sólida técnica de simplemente no intentar construir y vender algo para lo que no se tienen datos adecuados. Pero cualquier posible solución empieza por comprender y modelar el proceso de captura de datos como parte del flujo de trabajo general en el modelado. No es sólo una cuestión de la procedencia de los datos, sino casi de la filología de los datos: entender en detalle cómo se recogieron para poder averiguar qué problemas puede haber introducido el proceso en los datos, y luego lidiar con ellos.

Sesgos en la generación de datos

Aunque la mayoría de los analistas está familiarizado con sets de datos sesgados, la generación de datos sesgados antes de su medición y captura es un problema más sutil. Existe la expectativa implícita en Inteligencia Artificial de que si pudiéramos «tener todos los datos», podríamos construir cualquier modelo sin problemas. La mejor manera de entender por qué esto no siempre es suficiente es considerar el pasado como una serie de experimentos mediocremente diseñados, no una colección imparcial de datos representativos. Incluso si se tiene pleno acceso a todos los datos «recogidos» por la historia, estos datos fueron el resultado de condiciones influenciadas por decisiones humanas que no siempre, o más bien rara vez, fueron lo suficientemente diversas como para contar con un buen montaje experimental.

Consideremos como ejemplo la interacción entre el género y las habilidades matemáticas. Si bien es cierto que las mujeres matemáticas están menos representadas en los registros históricos — incluso los relativamente recientes — de lo que merecen sus logros, es probable que un hipotético registro histórico omnisciente mostaría más matemáticos profesionales masculinos (o el equivalente en sus sociedades) que femeninos, simplemente porque a las mujeres se las desalentaba sistemáticamente del estudio de las matemáticas en el mejor de los casos, y en el peor de los casos les era prohibido (en general como efecto secundario de prohibiciones más generalizadas de actividades intelectuales prestigiosas). No sólo tenemos limitaciones en los datos que tenemos, sino que estos datos se generaron de una manera que removió sistemáticamente información relevante para la pregunta (y, de hecho, cuando se miran los datos para los que tenemos condiciones suficientemente equilibradas, esta supuesta diferencias en capacidad desaparecen).

Otra forma de expresar el problema es que el ruido en la mayoría de los conjuntos de datos está mucho más correlacionado con otras variables de lo que nuestras herramientas matemáticas asumen: si se intenta modelar, digamos, las posibilidades de promociones en un trabajo como «capacidad mas esfuerzo mas ruido,» en entornos racistas ese «ruido» podría variar significativamente en función de la raza. Incluso con un conjunto de datos amplio y completo, es imposible construir un modelo imparcial sin modelar explícitamente cualquier sesgo dentro del proceso que generó esos datos.

Cualquiera que esté familiarizado con el análisis causal reconocerá este problema, y hay literatura y herramientas aplicables a esta situación, incluyendo formas de, en algunos casos, utilizar nuestro conocimiento del proceso de generación de datos para mejorar nuestro modelo. Estas herramientas no se utilizan tan a menudo como deberían, en parte por la mitología inconsciente de «si tuviéramos todos los datos…» y en parte porque el conocimiento de dominio implicado -historia, antropología, sociología- suele estar fuera de las áreas de formación o interés de las instituciones y personas que trabajan en estos modelos. Sin embargo, se trata del problema técnico de no incluir en el modelo un proceso clave que influye en su funcionamiento, uno con implicaciones éticamente negativas, pero no de un fallo ético implícito en la tecnología.

El problema ético «real»

Como muestran los ejemplos anteriores, hay muchos problemas en IA que no son el resultado de dificultades técnicas para hacer una «IA ética», sino de dificultades éticas mientras hacemos una IA, resultado de errores o negligencia técnica. En estas cuestiones no hay un equilibrio entre la ética y la ingeniería (o, como se suele decir, entre la equidad y la precisión): un proceso de ingeniería más ético crearía un modelo con mejor rendimiento.

Hay un grupo diferente de problemas donde éste no es el caso, al menos superficialmente. Considero muy sobreestimadas las variantes del «trolley problem,» pero consideremos un Titanic simplificado con un único bote salvavidas con espacio para una persona, una lista de pasajeros consistiendo de un adulto sano y un niño con salud frágil, y sin información sobre cuándo llegará el rescate. Un algoritmo de IA que maximice el número esperado de supervivientes pondrá al adulto en el bote; en algunas culturas y épocas, eso sería lo más ético. Yo pondría al niño en el bote. Supongamos, en el contexto de este argumento, que el lector también lo haría. En un escenario menos trágico, considere la posibilidad de elegir entre dos candidatos similarmente calificados para un puesto de trabajo, uno de los cuales es marginalmente mejor, pero necesitaría ciertos gastos para hacer la oficina accesible para sillas de ruedas.

Aquí no tenemos realmente un problema técnico: las predicciones del modelo sobre las probabilidades de supervivencia o el beneficio neto del empleado serían exactas. En este caso, la disyuntiva entre equidad y precisión es real, pero yo sugeriría que se debe a una función de utilidad mal especificada. Si se considera éticamente inaceptable poner al adulto en el barco en lugar del niño, basta con añadir «dando prioridad a los niños» a las restricciones de la solución para la IA.

En cierto sentido esto es una tautología obvia, pero la forma en que se plantean la mayoría de los problemas éticos en IA tiende a ocultar esta posibilidad al separar métricas de utilidad de restricciones éticas vinculantes. Es una versión tecnológica del concepto más bien extremo de que los directivos de las empresas sólo tienen un deber fiduciario para con su compañía, y que estas son las únicas métricas aplicables en la toma de decisiones.

Con el tipo de mentalidad que separa la maximización ex ante de ganancias de la consideración ex post de consecuencias sociales negativas,  es de esperar que las IAs puedan ser percibidas como implicando necesariamente un conflicto entre ética y utilidad, incluso ignorando los casos en los que se trata simplemente de mala ingeniería. En este caso, la solución no es técnica sino social y política: una IA puede adaptarse a requerimientos éticos, así como a cualquier otra característica debidamente definida del espacio de soluciones potenciales. El paso siguiente en el progreso de la disciplina es que los ingenieros (o más bien managers y, en última instancia, inversores) incorporen esas limitaciones a las IAs desde el principio, y no esperar a que estén funcionando para empezar a discutir cuestiones filosóficas sobre los límites de la tecnología.

Las buenas noticias

Todo esto son buenas noticias. Hay muchas áreas de la vida en las que, a veces, hay que elegir entre hacer lo éticamente correcto y hacer lo que es más conveniente para nosotros. El modo en que tomamos estas decisiones es una parte muy importante y a menudo complicada de lo que somos como individuos y como grupos. Pero, a pesar de la creciente importancia de la ética en IA como campo y como práctica, creo que en la mayoría de los casos no existe tal tensión. Lo correcto y lo lucrativo son lo mismo. Puede que tenga que dedicar un poco más de tiempo y recursos técnicos a la construcción de los modelos, pero eso se compensa con creces con su mejor performance. Si no lo hace alguien, lo harán sus competidores.

Y, citando a Kirk, si el cambio es inevitable, predecible y beneficioso, ¿no exige la lógica que forme parte del mismo?

Marcelo Rinesi

Si querés recibir noticias de
Baikal dejanos tu mail