JUAN MANUEL PARRA

La ética en el mundo digital

Las nuevas tecnologías plantean problemas éticos que no son del todo nuevos, excepto por las dimensiones que ahora alcanzan y que han añadido mayor complejidad a nuestra forma de ver el mundo e interactuar con este.

Juan Manuel Parra, Juan Manuel Parra
6 de noviembre de 2019

Inteligencia artificial, redes sociales, big data y cientos de avances tecnológicos plantean problemas éticos que no son del todo nuevos, excepto por las dimensiones que ahora alcanzan y les añaden mayor complejidad. Por ejemplo, el derecho a la intimidad no apareció recientemente, pero las nuevas tecnologías hacen cada vez más difícil defenderlo. Gracias a estas nuevas tecnologías ha cambiado nuestra forma de ver el mundo, de comprenderlo, de integrarlo en nuestra forma de comportarnos en sociedad y de actuar en la vida pública. Y no ha sido del todo para bien, pues ha sido a costa de la seguridad, la estabilidad o la privacidad. 

Antonio Argandoña, profesor de ética de IESE Business School (España), reflexionó sobre los problemas éticos de la era digital, los cuales trataré de resumir, pues da ideas muy sugerentes e ilustrativas.

En términos de la dimensión individual de la ética, cuando una persona quiere juzgar si una acción suya o de otro es ética o no, debe considerar tres elementos básicos para analizarlo: 1) definir el objeto, es decir, delimitar correctamente cuál fue la acción realizada (por ejemplo, enviar un mail o postear algo en redes sociales); 2) determinar el fin o la intención con la cual lo hice (compartir una noticia verdadera, falsa, o una parcialmente cierta y ambigua); y 3) considerar todas las circunstancias relevantes en las que lo hice (lo hice con mi nombre real, un pseudónimo o una identidad falsa; lo hice a través de un e-mail privado o una red pública; estaba calmado o enfurecido; etc.). Para calificar la acción como “ética” o “no ética”, bastaría que el objeto o la intención no sea ético para que la acción completa no lo sea; las circunstancias solo sirven como agravante o atenuante. Así, el objeto puede ser ilícito (compartir información falsa o un secreto profesional o información privada de alguien más) o hacerse con mala intención (sembrar dudas sobre la honra de alguien, incentivar la zozobra social o generar pánico económico). Antes hacíamos eso tomando cerveza con amigos, quedándose en un ámbito reducido, pero ahora basta un forward o un post para que algo privado circule en cuestión de segundos entre millones de personas. Además, nuestra opinión personal puede ser manipulada fácilmente por terceros en el proceso, hasta el punto de dificultar a otros saber qué tan verdaderas o falsas son nuestras afirmaciones.

En su dimensión social o pública, la “ética digital” es relevante como consecuencia de su alcance e impacto. Ahora debemos extenderla a los artefactos diseñados por personas que empiezan a comportarse como si fueran humanos que interactúan con muchos otros. Los sistemas inteligentes toman decisiones que antes eran de los individuos, generando nuevas realidades para quienes reciben el impacto de esas decisiones (por ejemplo, cuando filtran los currículos para acceder a ciertos cargos en numerosas empresas). 

La era digital llegó con herramientas que superan por mucho la capacidad cognitiva de cualquier ser humano, al menos en términos de su capacidad y velocidad de procesar billones de datos disponibles para determinar probabilidades con gran nivel de certeza. Pero no pueden competir con las personas en sentido común y conocimiento tácito o en nuestra forma de asumir los impactos personales de nuestras decisiones debido a cómo funciona nuestra conciencia. 

Un aparato de inteligencia artificial puede detectar las señales de un cáncer, pero no “sufrir” empáticamente con nosotros y consolarnos; puede encontrar la mejor alternativa en ciertas condiciones prefijadas, pero no afrontar las consecuencias humanas de la decisión (como si un automóvil autónomo sacrifica a su conductor, nuestro mejor amigo, para evitar atropellar a un peatón); tienen una capacidad de memoria increíble que les permiten recordarlo todo, mientras que la pobre memoria humana es un gran mecanismo para filtrar y organizar información que nos permite recordar lo importante, olvidar lo irrelevante, evocar eventos del pasado a la luz del presente y dar a cada dato el valor que merece dadas ciertas circunstancias presentes. Al no ser “sintientes” ni seres morales, estas herramientas no saben de sufrimiento más allá de ser un dato; no se compadecen genuinamente del dolor de quien sufre ni compartir nuestros placeres y alegrías; no comprenden todas las consecuencias de lo que hacen, ni necesariamente entienden cuáles excepciones aplicar a sus reglas prefijadas en situaciones diversas; no reflexionan sobre el tipo de comunidad que aspiran para sus hijos y actuar en consecuencia. 

¿Aplica la “ética digital” al algoritmo y al robot? No tanto, pero sí a los criterios que deben considerar quienes los diseñan, fabrican o distribuyen; a los criterios y reglas de operación que incorporan en su diseño y operación; y la que corresponde a sus usuarios y a su forma de utilizar las capacidades que esas tecnologías les proporcionan. Esto sería útil para distribuir responsabilidades y regular las relaciones entre personas y sistemas inteligentes. 

Argandoña nos recuerda la importancia del “agente moral”, para recordarnos cómo en cada acción hay un agente que actúa u omite actuar (sean individuos o colectividades) y otros que reciben las consecuencias de dicha acción u omisión. Un agente moral puede responder, al menos en cierto grado, por sus acciones y hacerse responsable por las consecuencias. Un “agente artificial” podría explicar las razones detrás de sus decisiones (por qué nos niega un crédito); y para rendir cuentas debería interactuar con su entorno, estar suficientemente informado y ser inteligente, autónomo, adaptable a voluntad (aprendiendo y cambiando como consecuencia de su conducta), y capaz de realizar acciones basadas en sus valores individuales. Aun así, no necesariamente se le podría atribuir responsabilidad moral, porque carece de intenciones como los humanos (poder dar significado propio e individual a sus actos, fruto de un querer voluntario); esto le correspondería a quien incorporó las reglas de operación en su diseño. 

Pensar éticamente la era digital supone primero asumir que estas tecnologías no deberían dañar a las personas, ni a la sociedad en su conjunto, sirviéndoles mejor, personalizando contenidos y servicios que se adapten a las necesidades y limitaciones de sus usuarios, pensando en que proporcionen mayor o menor acceso o facilidad de uso (dependiendo de los conocimientos necesarios o las capacidades físicas para usarlo correctamente) y accesibilidad para diversos segmentos de población (por ejemplo, discapacitados). 

Segundo, presupone cuidar la seguridad de todos, dado que –por su diseño complejo- los usuarios normales jamás llegaremos a conocerlo del todo bien, por lo que nos dificulta controlar las consecuencias de su mal uso, identificar sus riesgos y protegerse de ellos, por lo que la regulación estatal es tan importante como la ética del fabricante y el usuario. Esto aplica por igual a quien fabrica armas o software, pero en el segundo caso es relevante por cuanto su complejidad permite ocultar acciones que dejan desprotegido al usuario (sea frente a fabricantes y comercializadores o frente a grupos radicales organizados) y porque puede disminuir paulatinamente su sensibilidad moral (en la medida en que le permite violar fácilmente derechos como la propiedad intelectual o la privacidad, o generar pánico económico y promover zozobra social, contribuyendo a esto muchas veces sin saberlo). 

Tercero, implica proteger la intimidad de quienes pretenden usar información sobre nuestra salud, historial crediticio, preferencias, decisiones, contactos, lugares que frecuentamos, etc., que pueden redundar en seguimientos de criminales, vigilancia gubernamental, discriminación, y pérdida de control nuestra vida.

Cuarto, en términos de transparencia, justicia e imparcialidad, los algoritmos pueden iniciar o prolongar situaciones de discriminación como consecuencia de los datos disponibles, pero que incorporan prejuicios ocultos y sostenidos durante años. Así, cuando se incorpora cierta lógica predictiva a partir de eventos pasados, los algoritmos inevitablemente toman decisiones sesgadas a partir de los valores de sus diseñadores y de los datos disponibles, congelando en un código, intencionalmente o no, unos valores que no necesariamente son correctos y convenientes.

Y quinto, los principios de autonomía, libertad y socialización, muchos de los cuales se ven amenazados por la adicción a una tecnología que, si bien son ocasión de apertura al mundo, también son riesgo de ensimismamiento en relaciones virtuales irreales y de restricción del criterio personal y radicalización ideológica a partir de solo ver el mundo que cada uno quiere ver desde el filtro y preferencias de sus redes sociales. 

Como podrá verse, los retos éticos de la era digital no son pocos.