Volver

Discusión ética a partir de la inteligencia artificial

Desde muy pequeños a los seres humanos se nos ha enseñado a evaluar las posibles consecuencias que se generan a partir de nuestras decisiones; actuar bajo ese conocimiento determina nuestro propio sentido ético. El desarrollo de algoritmos de inteligencia artificial(IA) ha permitido avanzar considerablemente en diferentes aspectos de la ciencia en un tiempo relativamente corto. Este uso constante genera tanto entusiasmo por los logros obtenidos como preocupación por los posibles usos malintencionados o productos mal diseñados que afecten la vida de las personas. En este artículo presentamos una reflexión y un análisis delos posibles retos que estos algoritmos enfrentan, desde el punto de vista del pensamiento ético.

En la actualidad, la inteligencia artificial ha ganado un terreno importante en el desarrollo tecnológico y científico. La habilidad para realizar tareas que típicamente requieren de la inteligencia humana para ser completadas con un alto grado de confianza, ha permitido obtener adelantos en un sin número de ramas del conocimiento. Es así como estos sistemas son utilizados, por ejemplo, en la interpretación de imágenes médicas, donde se puede destacar la detección temprana del cáncer; la conducción de carros autónomos; la interpretación del lenguaje a tal punto de tener conversaciones coherentes; los sistemas de seguridad informática; entre otros. Ante este panorama es normal que surjan inquietudes, tanto fundamentadas como infundamentadas al respecto ¿cuál es el alcance de esta tecnología?, ¿Cómo podemos vernos afectados positiva y/o negativamente?, ¿Cuáles son las implicaciones y qué consideraciones éticas que conllevan?  

En este artículo reconocemos que la ética cuenta con diferentes definiciones y comprende toda una rama de la filosofía, por lo que tomamos la que a nuestro criterio mejor representa el caso de estudio aquí presentado. Por lo tanto, entendiendo la ética, de acuerdo a la definición del filósofo John Dewey (Philosophy, 2018), como la utilización de la inteligencia reflexiva para analizar nuestros juicios teniendo en cuenta las consecuencias de actuar sobre ellos; es posible reflexionar sobre las repercusiones que el uso de la inteligencia artificial trae consigo, sus limitaciones, alcances y posibles desafíos; tanto de la tecnología en si misma como de las personas que la operamos y desarrollamos.  

¿Puede una máquina ‘pensar’ éticamente? 

Alan Turing definió la inteligencia artificial como la capacidad que tiene una máquina de imitar el comportamiento de una persona. Es así como el famoso ‘test de Turing’ evalúa la conducta de la máquina dependiendo de si es capaz de engañar a un ser humano haciéndole creer que también lo es. Como se planteó anteriormente, en la actualidad, los algoritmos de inteligencia artificial logran realizar una gran cantidad de tareas obteniendo un desempeño similar a los conseguidos por una persona experta en el tema, sin realizar una programación específica para cada aplicación, lo que ha facilitado algunos procesos y ha permitido lograr un avance significativo en diferentes ramas de la ciencia. A pesar de los progresos obtenidos, existen algunas preocupaciones que conllevan estos algoritmos al momento de su utilización y sobre las cuales se debe centrar la investigación de este tipo de tecnologías, tal como lo mencionan Bostrom y Yudkowsky (Bostrom & Yudkowsky, 2011), estas son: permitir una inspección transparente del proceso que están realizando, ser predecibles, ser robustos ante posibles manipulaciones externas y determinar la responsabilidad ante un hecho. En este contexto, emergen preguntas como ¿puede una máquina imitar el comportamiento ético de una persona?, en caso de un conflicto que involucre una máquina ¿quién tiene la responsabilidad de los hechos, la máquina, los ingenieros que la diseñaron o la persona que hace uso de ella?, ¿es posible predecir la decisión que tome la máquina? o ¿es posible auditar el proceso realizado?  

Para poner un ejemplo sobre el tema, en 2016 Microsoft creo una cuenta en la plataforma social Twitter la cual sería controlada por un chatbot1 llamado Tay. La idea consistía en realizar un experimento para la investigación en entendimiento conversacional donde el robot aprendiera a través de las conversaciones divertidas y amigables que se iban generando. La consigna de su lanzamiento era “entre más hables con Tay ella será más inteligente” (The guardian, 2016). Por medio de los diálogos, los usuarios lograron que el sistema promueva ideas racistas, antisemitas y tenga conversaciones poco coherentes que apoyaban y atacaban ideas como el feminismo. El sistema fue apagado después de 16 horas de uso y Microsoft se disculpó por los comentarios y eliminó los tweets. En un caso similar, Facebook enfrentó dificultades con su sistema de sugerencia de búsquedas en 2018, el cuál proponía contenidos inapropiados cuándo las personas escribían cosas como “vídeo de …”. En este caso la compañía detuvo el sistema y culpó a los usuarios de la plataforma por el comportamiento, dado que el sistema representa lo que los usurarios buscan normalmente y/o se convierte en tendencia, liberándose de la responsabilidad. Finalmente, cabe anotar que Microsoft relanzó su chatbot esta vez con el nombre de Zo, el cuál estuvo en funcionamiento desde diciembre de 2016 hasta abril de 2019; y aunque aún fue posible hacer que el sistema dijera cosas ofensivas no se comparaban con las de su antecesor (Angulo, 2018). 

En el ejemplo anterior, se puede observar que para hacer que la máquina responda y mantenga una conversación medianamente coherente no es posible programarla al detalle ya que el número de posibilidades es extremadamente grande. Al brindar a la máquina la habilidad de aprender a partir de los datos de entrada, sin realizar una programación específica, los ingenieros que desarrollaron a Tay tuvieron que comprometer la predictibilidad del sistema. Es decir, no pudieron predecir los resultados obtenidos, generando efectos completamente contrarios a los que buscaban en un principio. Tampoco tenía un sistema robusto ante posibles ataques, lo que desencadenó en agresiones. Adicionalmente, el trabajo realizado por la máquina tiene dimensiones sociales y los requerimientos que aplican para los seres humanos en este tipo de tareas también deben ser tenidos en cuenta por la máquina. Finalmente, con el esfuerzo realizado por los ingenieros fue posible lanzar Zo, una versión mejorada que probablemente requirió de programación específica, supervisión humana y filtración para evitar que cayera en los errores de su predecesor; en términos del mismo Microsoft “Zo proporciona un punto de vista único, sin dejar atrás sus modales y expresiones emocionales” (Equipo Microsoft Latinx, 2018).  

El ejemplo es relativamente inofensivo, en el sentido que nadie se vio gravemente afectado. Sin embargo, es claro que en otras situaciones el uso de sistemas de inteligencia artificial puede afectar la vida de las personas en varios sentidos. El desarrollo de este tipo de tecnología está en aumento; los ingenieros, científicos, personas que se envuelven en el medio y que trabajamos con ella debemos prestar atención a las consecuencias directas e indirectas que los desarrollos propuestos conllevan.  

Enfrentando dilemas éticos en los sistemas de inteligencia artificial  

Se puede pensar entonces que es necesario que la máquina tome decisiones éticas. En algunos casos, estas pueden ser guiadas por el sistema legislativo y las regulaciones planteadas de forma colectiva, por ejemplo, no exceder el límite de velocidad permitido, no discriminar por razones de sexo, raza o nacionalidad o mantener el principio de distinción en un conflicto armado (distinguiendo claramente entre combatientes y personas civiles), entre otros. Mientras que el problema presenta más complejidad en las situaciones donde estas legislaciones no son claras, requieren una decisión individual o el análisis del caso de estudio en particular. 

En este contexto existen algunas teorías para abordar esta problemática. Amitai y Oren Etzioni (Etzioni & Etzioni, 2017) analizan algunas posibilidades en este sentido. Una de ellas consiste en programar de cierta forma una guianza ética; la cual podría tener un precepto previamente establecido por la humanidad, las tres leyes de la robótica propuesta por Asimov, la teoría Kantiana, la teoría utilitarista, una creencia religiosa, etc.; para que de esta forma el sistema de inteligencia artificial actúe de acuerdo con el precepto establecido. El problema con este enfoque es claro, quién determina sobre cual precepto formar dicha guianza, cuando en cualquier momento van, inevitablemente, a tomar una decisión que muchos encontrarían poco ética. Otro enfoque, puede ser el de la observación del comportamiento humano en situaciones reales; en este caso es importante anotar que en momento de estrés los seres humanos actuaremos, llevados más por reflejo que por una reflexión del pensamiento ético. Por lo que la observación no enseñaría a la máquina a tener un comportamiento ético sino un comportamiento común. En el caso de la conducción, tenemos normas establecidas y unas señales de tránsito las cuales se deben acatar; sí una máquina aprendiera la manera óptima de conducción por medio de la observación del comportamiento humano, probablemente irrespetaría muchas de ellas, así sea capaz de evitar los accidentes, estaríamos de acuerdo que su forma de conducción no sería la apropiada.  

Tal como lo hemos mencionado en artículos anteriores el deep learning o aprendizaje profundo es la herramienta que permitió que los sistemas aprendan directamente de los datos. Gracias a este avance, los programadores no tienen que diseñar por completo y predecir cada una de las infinitas situaciones posibles para desarrollar una tarea, sino que permiten que los algoritmos resuelvan el problema por ellos mismos. De esta forma se gana en desempeño, pero se pierde conocimiento del detalle de funcionamiento interno. Esta propiedad les otorgó el nombre de sistemas autónomos. Amitai y Oren Etzioni (Etzioni & Etzioni, 2017)  reflexionan en este punto y llegan a la conclusión de que estas máquinas no pueden ser completamente autónomas, ya que el objetivo final sobre el cual se construyen, sin importar su funcionamiento interno, es dictado por quien las programa. En ese sentido, siguen siendo una herramienta del ser humano quien las diseña, manufactura y utiliza. Finalmente, en su artículo plantean que es posible tener dos sistemas de IA, uno denominado mente (mind) u otro denominado compañero (partner). El compañero está diseñado para ser un sistema de apoyo y de sugerencia, las decisiones finales son tomadas por las personas que la utilizan. Mientras que los sistemas mente, son los que están programados para tomar todas las decisiones; en este caso es necesario plantear sistemas de supervisión que modelen el comportamiento ético de los individuos y por supuesto es un tema abierto de discusión que debe ser tenido en cuenta por los desarrolladores de la tecnología, los legisladores y los usuarios finales del sistema.  

Conclusiones 

Con los avances en la tecnología y el alto grado de confianza con que se predicen los resultados, las personas tendemos a relegar la toma de decisiones a las máquinas y, en lugar de verlas como un sistema de apoyo al experto en el tema, los utilizamos con una confianza ciega, exigiéndole que sea perfecta. El comportamiento ético, no únicamente de la máquina, sino también de cualquier desarrollo científico y tecnológico es sin duda una discusión de alta importancia. En el caso de la inteligencia artificial, dada su característica conferida de autonomía, toma relevancia el planteamiento de estas discusiones y que se propongan soluciones que permitan regular su uso por medio de la supervisión humana. Cabe anotar que los investigadores en el tema están haciendo esfuerzos enormes para crear sistemas interpretables, auditables y robustos ante posibles ataques.    

Autora: Maria Ximena Bastidas Rodríguez. 

Bibliografía 

Angulo, I. (2018). Facebook and YouTube should have learned from Microsoft’s racist chatbot. CNBC

Bostrom, N., & Yudkowsky, E. (2011). THE ETHICS OF ARTIFICIAL INTELLIGENCE. In W. R. Keith, Cambridge Handbook of Artificial Intelligence. Cambridge University Press

Equipo Microsoft Latinx. (2018, Feb 15). Zo, un chatbot como ningún otro. Microsoft, pp. https://blogs.microsoft.com/latinx/2018/02/15/zo-un-chatbot-como-ningun-otro/. 

Etzioni, A., & Etzioni, O. (2017). Incorporating Ethics into Artificial Intelligence. The Journal of Ethics

Philosophy, S. E. (2018). Dewey’s Moral Philosophy.  

The guardian. (2016). Tay, Microsoft’s AI chatbot, gets a crash course in racism from Twitter. The guardian.