La inteligencia artificial y el problema del racismo

Han pasado unos meses desde que Microsoft comenzó un ensayo de inteligencia artificial en Twitter. Programaron un chatbot llamado Tay y lo vincularon a una cuenta de Twitter. El chatbot no podía hacer mucho más que aprender. Con cada interacción, aprendió más de los usuarios humanos con los que se comunicaba. Poco antes de que Microsoft apagara a Tay de nuevo, la IA se había convertido en una racista y comprensiva de Hitler.

El proyecto neutral que, a las pocas horas de interactuar con la gente en Twitter, se había convertido en un programa de tipo neofascista, puede servir como un buen ejemplo de dos problemas fundamentales de la IA. La primera sería la neutralidad, o más bien la falta de una brújula moral que la mayoría de la gente lleva consigo. El algoritmo no distingue entre el bien y el mal, no puede, porque no entiende el concepto que hay detrás de él. Si un algoritmo considera algo como “inmoral”, es porque uno de sus programadores pensó en etiquetarlo como “inmoral”. El segundo problema es aún mayor, porque la inteligencia artificial aprende de la inteligencia humana. Hay algo de verdad en la demanda de que primero debemos desarrollar la inteligencia humana antes de tratar de enseñarla a las computadoras.

También Amazon tuvo que aprender hace unas semanas que no se puede confiar sólo en la IA. El grupo utilizó un algoritmo para preseleccionar a los candidatos, que decidió a cuál de los candidatos debía ser invitado a una entrevista. La AI hizo esto hasta que un empleado humano se dio cuenta que, por cualquier razón, solo aparecían hombres para las entrevistas. La causa fue encontrada rápidamente, el algoritmo simplemente había decidido en algún momento de su proceso de aprendizaje que las mujeres no eran adecuadas para los puestos anunciados.

Con otros algoritmos, el racismo es tan obvio a primera vista, por ejemplo, en la policía predictiva. En este caso, la inteligencia artificial se alimenta, entre otras cosas, de informaciones sobre los delitos, los delincuentes y las escenas de los delitos. A partir de esto, hace predicciones sobre dónde es más probable que ocurran los crímenes. A primera vista, una cosa sensata que hay que hacer, después de todo, el mejor crimen es un crimen que se ha prevenido. Sin embargo, se consideró que los delincuentes en un 99% eran negros, en el caso de algunos programas informáticos utilizados. Un problema similar se experimentó en los EE. UU. con los primeros programas de reconocimiento facial, que regularmente fracasaban con las personas de raza negra. ¿La razón? Habían sido alimentados casi exclusivamente con fotos de personas blancas, por ejemplo. ¿Puede entonces el algoritmo ser acusado de racismo? Cuando es notable, que los programadores ni siquiera cometieron el error intencionalmente.

El problema no se simplifica por el hecho de que los procesos de aprendizaje de los algoritmos tienen lugar en una caja negra. En resumen: El programador alimenta la IA con el contenido, pero no puede entender cómo y por qué se sacan conclusiones, el sólo puede juzgar el nuevo resultado. En los casos descritos, los resultados fueron aterradores pero reparables. Tal vez será sólo cuestión de tiempo antes de que la IA pueda optar por algo más sofisticado que simplemente invitarte a una entrevista.

En 1942, el científico y escritor ruso-estadounidense Isaac Asimov ya tenía la previsión de que aquí se necesitaban normas. Los creó con sus leyes de robot:

  1. Un robot no debe herir a ningún ser humano ni permitir que ningún ser humano sea herido por la inacción.
  2. Un robot debe obedecer las órdenes dadas por un humano, a menos que dichas órdenes choquen con la regla Uno, (anterior)
  3. Un robot debe proteger su existencia siempre y cuando esa protección no colisione con la regla uno o dos.

Asimov creó estas tres leyes para un cuento corto, que formó al mundo de la ciencia ficción. Algunas veces son más o menos adoptados, otros autores incluso se refieren directamente a Asimov en sus creaciones. Y como muchas cosas en la ciencia ficción, las tres leyes robóticas de Asimov también entraron en la ciencia real. Al menos disfrutan – gracias a Dios – de una continua popularidad entre los científicos en los campos de la inteligencia artificial y la robótica.

Mientras tanto surge la pregunta, de si no se necesita un código completo antes de que un algoritmo pueda ser liberado a la humanidad. Un conjunto de reglas que eviten la discriminación sin obstaculizar el algoritmo en su trabajo. Pero ¿es eso posible? En nuestros esfuerzos por combatir los prejuicios, a veces olvidamos que los prejuicios también pueden ser perjudiciales. Y eso puede tener su efecto individual en cada uno de nosotros, en el momento cuando se nos ocurren estos prejuicios en forma personal. La rápida e inconsciente división en cajones es lo que hace posible nuestra supervivencia diaria. Ni siquiera el cerebro humano sería capaz de hacer frente al aluvión de información que de otro modo sería amenazante.

Ahora bien, ¿cómo podemos conseguir crear un algoritmo sin prejuicios si ni siquiera podemos eliminar nuestros propios prejuicios?

¿Te gustó este artículo? Usted puede apoyarnos con PayPal!