Skip to content

Machine learning y ética algorítmica

Una de las clasificaciones más antiguas en la separación de géneros periodísticos es la aportada por el periodista británico Charles P. Scott (que también fue editor y político) cuando en 1821 escribió un ensayo donde indicó que <>. En definitiva, los géneros informativos frente a los opinativos.

Es esa sentencia se encuentra resumida una de las normas básicas de la profesión periodística: las informaciones deben ser lo más neutrales posibles y solamente explicar los hechos, dejando las opiniones personales, con la subjetividad que ello conlleva, para otro espacio.

En el desarrollo de los géneros periodísticos tenemos a la noticia como un claro ejemplo de los géneros informativos, mientras que el editorial o la crítica serian ejemplos de los opinativos.

En este sentido, Ignacio Escolar, director del periódico digital www.eldiario.com y anteriormente del diario madrileño Público, considera que el editorial, muy propio de los diarios, no debería existir. El editorial condensa la opinión oficial del medio sobre un acontecimiento de actualidad. Sin embargo, Escolar entiende que los medios no tienen opinión ya que éstas son exclusivas de las personas físicas. Las sociedades, las personas jurídicas, las empresas, en suma, lo que tienen -afirma Escolar- son intereses.

Traigo a colación esta separación para igualarla a otra diatriba que se está instalando en nuestras vidas, sin apenas darnos cuenta, y que condicionará sobremanera la forma de actuar de los seres humanos: los algoritmos y su neutralidad social. Podríamos definir un algoritmo como <>. Pero, ¿son los algoritmos realmente una cadena numérica solamente o inciden en el desarrollo ético del comportamiento humano? ¿Exclusivamente hacen su trabajo (en el periodismo sería ‘informar’) o inciden en la conformación de la opinión pública?

A nadie se le escapa la cantidad de algoritmos que pueblan nuestras vidas. Son ingentes. Los encontramos en multitud de situaciones cotidianas. Cantidad de desarrollos algorítmicos los vemos presentes a diario no solo en los ordenadores, en nuestros vehículos, en electrodomésticos, en los call centers, en la megafonía, en los sistemas de vigilancia…

Además, la inteligencia artificial (IA) se está introduciendo en un creciente número de tareas realizadas hasta la fecha por humanos. En ese nuevo escenario aparece, por ende, el machine learning donde las máquinas (el software que incorporan) van aprendiendo de sus errores, capacitándose mejor para próximas intervenciones. Es lo que Sherry Turkle ha definido como el ‘horizonte robótico’.

Quizás el concepto máquina no sea el adecuado para definir a todo ese complejo mundo de los robots y los cobots (cuando tienen entidad física), pero tenemos los denominados asistentes personales inteligentes. ¿Quién no conoce a Alexa, Siri o Cortana, por ejemplo?) o también a los bots sociales y los chatbots (cuando se trata exclusivamente de concretar paquetes informáticos). Todos ellos albergan algoritmos que permiten múltiples funciones. Incluso la interacción humana a través del lenguaje.

Muchos algoritmos se han diseñado bajo unas determinadas concepciones éticas… o en ausencia de ellas. Y ello es potencialmente peligroso. Estamos frente a un nuevo contexto de organización donde la sociedad necesita establecer un conjunto de reglas para gestionar la dinámica de esas creaciones y su afectación al comportamiento humano y al desarrollo social.

Ya se han alzado algunas voces que tratan de concretar jurídicamente la existencia de las personas electrónicas (por contraposición a las físicas y a las jurídicas), de tal manera que puedan ser dotadas de derechos y deberes. Ello posibilitaría, por ejemplo, la creación de impuestos y obligaciones tributarias, pero también la obligación de sus creadores de desarrollar algoritmos ‘con alma’, que respeten ciertas normas éticas, presentes en cada sociedad.

Hay que plantearse la necesidad de crear algoritmos que respeten las normas morales o éticas presentes en cada sociedad y en cada momento histórico. La pregunta fundamental no es si la ética pueda penetrar en el silicio, sino ¿cómo hacerlo? Y la respuesta está, como siempre, en manos de los humanos. Los programadores deben establecer códigos éticos en su comportamiento profesional. Y respetarlos. Al igual que hacen desde hace tiempo otras profesiones.

Para profundizar en el tema:

Monasterio, Aníbal (2017). Ética algorítmica: Implicaciones éticas de una sociedad cada vez más gobernada por algoritmos. Dilemata, 24, 185-217.
Sobre Sherry Turkle:
https://elpais.com/cultura/2012/03/21/actualidad/1332337561_848754.html

Calvo, Patrici; Osal, Cristian (2018). “Whistleblowing y datos masivos: monitorización y cumplimiento de la ética y la responsabilidad social”. El profesional de la información 27 (1), 173-184. http://repositori.uji.es/xmlui/handle/10234/174870
SEGURIDAD Y PRIVACIDAD EN BIG DATA: Retos y oportunidades (GDPR). http://planetic.es/sites/default/files/planetic/public/content-files/page/GDPR_y_BigData_Fidesol_0.pdf

Dr. Joaquín Marqués
Twitter: @Quim_Marques

LinkedIn: www.linkedin.com/in/joaquimmarques

Dr. Joaquín Marqués
Twitter: @Quim_Marques

LinkedIn: www.linkedin.com/in/joaquimmarques