estupidez artificial

Estupidez artificial: Limitaciones y fallas de los algoritmos

Quienes escribimos en un blog contamos con aplicaciones que sirven para mejorar la visibilidad de lo que vamos publicando en internet. Para ello, los asistentes digitales tienen en cuenta los criterios de Google y otros buscadores para hacer recomendaciones acerca de la estructura y de ciertas características de los artículos con el propósito de facilitar su indexación y su rápida identificación ante una búsqueda de contenidos relacionados. Una de los prestaciones de la aplicación que yo uso, que es líder en su segmento, mide la legibilidad del post para determinar si es de buena calidad o si «necesita mejorar».

Dado que tengo bastante experiencia en materia de editar y escribir, me llamó desde el principio la atención que según la evaluación de mi asistente digital mis artículos siempre necesitaban mejorar. Y si bien yo no hacía caso a la recomendación, pues se trata de un área en la cual me siento seguro, el reclamo me generaba cierta incomodidad. Para salir de dudas, decidí copiar y pegar de manera sucesiva dos artículos periodísticos de estilos muy diferentes y calidad indiscutida, uno escrito por Gabriel García Márquez y el otro por Jorge Luis Borges. Implacable, la evaluación del asistente digital indicó que tanto García Márquez como Borges estaban por debajo de sus estándares. Ambos textos necesitaban mejorar.

El fallo evidente del algoritmo me llevó a buscar otros casos en los cuales la inteligencia artificial no resulta tan sagaz como pretendemos o suponemos que debe ser, y a tratar de establecer qué precauciones tomar para contrarrestar esas deficiencias.

Recomendaciones sesgadas

Saber que los algoritmos procesan millones de datos de un modo casi instantáneo, algo que está completamente fuera de nuestro alcance, nos lleva a creer que pueden replicar la perfección matemática en cualquier área a la cual apliquen su poder de cálculo. Sin embargo, un chequeo de las sugerencias publicitarias que recibimos a diario nos permite comprobar que los avisos suelen insistir en presentarnos productos que no nos interesan o bien porque ya realizamos la compra o porque hicimos una búsqueda por mera curiosidad.

Estas recomendaciones sesgadas, que toman parte de nuestra actividad online como si fuera representativa de toda nuestra conducta, no pasan de ser una molestia cuya dimensión dependerá en buena medida del estado de ánimo y la personalidad del receptor. Pero hay casos de recomendaciones elaborados de un modo análogo que tienen consecuencias preocupantes. Por ejemplo, el sistema COMPAS, que desde 1998 usan muchos jueces en los Estados Unidos como asesor para decidir sobre la libertad de los detenidos, no hace bien su trabajo. El algoritmo analiza 137 variables, ninguna de las cuales es la raza, para dar una probabilidad de reincidencia de 0 a 10. Un equipo de investigadores de la Universidad de Dartmouth comprobó en 2018 que el COMPAS tiene el mismo porcentaje de error que una persona elegida al azar y no entrenada en derecho penal. Además, otro estudio demostró que el sistema logra identificar por su cuenta la raza de los detenidos y tiende a juzgar con mayor severidad a los negros que a los blancos.

En defensa del statu quo

Consciente de estas limitaciones y fallas de los algoritmos, la matemática y científica de datos estadounidense Cathy O’Neill advierte que hoy los sistemas de inteligencia artificial deciden quiénes son los ganadores y los perdedores a la hora de recibir un préstamo, obtener una entrevista de trabajo o contratar un seguro a un precio razonable. Así las cosas, somos evaluados por fórmulas que desconocemos, dado que suelen ser secretas, y que llegado el caso de que se hicieran públicas no podríamos comprobar fácilmente si son o no acertadas, pues su comprensión exige conocimientos técnicos avanzados.

En realidad, señala O’Neill, los algoritmos no son más que opiniones expresadas en código, las cuales pueden tener mayor o menor fundamento. Esta definición deja al descubierto que presentarlos como herramientas objetivas, verdaderas y/o científicas no pasa de ser un truco de marketing. Además, las opiniones codificadas se basan siempre en definiciones de éxito que parten de lo sucedido hasta el momento. De manera que si entrenamos un algoritmo en base a los datos de una organización que discrimina a las mujeres, obtendremos una aplicación que refuerza ese prejuicio. Lo mismo vale para otras prácticas y patrones de conducta del pasado: los algoritmos tenderán a repetir lo conocido y a adoptar soluciones conservadoras.

Un bot nazi

Un caso célebre de estupidez artificial fue el protagonizado por Microsoft, que lanzó en marzo de 2016 un bot con una cuenta de Twitter para que mantuviera conversaciones con usuarios humanos. Basado en un proyecto similar implementado en China, donde el bot de la empresa había mantenido más de 40 millones de conversaciones sin dificultades, la versión occidental se denominó Tay y se la programó para que fuera aprendiendo cómo comportarse en base a su interacción en la red. Al cabo de algunas horas, Tay sostenía que “Hitler había hecho un trabajo mejor que el mono que tenemos ahora”, en alusión al presidente de los Estados Unidos Barack Obama, y se había convertido en fan de Donald Trump.

El fracaso de Tay, que fue dado de baja rápidamente por Microsoft, fue acotado y fácil de detectar. En cambio, rutas de GPS que llevan a los usuarios a barrios peligrosos donde son víctimas de ataques violentos, o avisos en Facebook o Google dirigidos a personas que se identifican con el odio a una minoría, o campañas electorales que se manipulan por medio de noticias falsas y avisos engañosos hechos a la medida de cada receptor, son todos resultados no previstos y difíciles de erradicar, debidos a fallas en la concepción de sistemas informáticos de gran extensión y complejidad.

En 1989 el investigador estadounidense Jay Liebowitz se preguntó por la cuota de estupidez que inevitablemente contendría la Inteligencia Artificial. Algunas de las limitaciones de entonces —como la capacidad de aprender, de comunicarse con otros sistemas o de actualizar los conocimientos— han sido superadas en la actualidad. Otras continúan sin una respuesta adecuada y deben ser afrontadas por las personas que usan esos sistemas expertos, para lo cual es imprescindible ser consciente de esa necesidad. De lo contrario, la utilización acrítica de los resultados obtenidos puede ocasionar problemas de muy diverso tipo. Las facultades humanas que deben actuar como control de los algoritmos son: el sentido común, el razonamiento en profundidad y la capacidad de encontrar explicaciones fundamentadas. Sin ellas, el ridículo y el desastre estarán al acecho y más temprano que tarde irrumpirán en nuestras vidas.

Referencias

Nuño Domínguez, “Estupidez artificial: el problema que nadie vio venir”, El País, 18/11/2018, disponible en https://elpais.com/elpais/2018/11/15/ciencia/1542314780_296201.html?rel=lom (consulta 15/03/2019).

Caathy O’Neill, “La era de la fe ciega en los datos masivos ha de terminar” [Video], TED, Abril 2017, disponible en https://www.ted.com/talks/cathy_o_neil_the_era_of_blind_faith_in_big_data_must_end?language=es#t-111317 (consulta 15/03/2019).

Hayley Williams, “Microsoft´s Teen Chatbot Has Gone Wild”, Gizmodo, 25/03/2016, disponible en https://www.gizmodo.com.au/2016/03/microsofts-teen-chatbot-has-gone-wild/ (consulta 15/03/2019).

1 comentario

Dejar un comentario

¿Quieres unirte a la conversación?
Siéntete libre de contribuir!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *