Observador Urbano

Enseñar Ética a futuros profesionales de la Tecnología

Presentación

¿Enseñar ética es necesario para aquellos que se forman en distintas áreas de la Tecnología? Si, sin dudas. Sin embargo, es claro que definir lo ético puede resultar conflictivo o lo suficientemente complejo, como para llegar a un acuerdo, o establecer precisiones. Y mucho más, si lo vinculamos con el mundo Tecnológico.

Desde sus inicios, tanto como reflexión filosófica como cultural, lo ético ha tenido que ver con aquellas conductas que consideramos positivas, buenas y beneficiosas para el hombre. Es obvio que las determinaciones concretas e históricas varían, pero también podemos encontrar algunos elementos que tienen universalidad y continuidad. Lo ético implica, generalmente, una afirmación de lo propio del hombre, de aquellas realidades que lo desarrollan más plenamente: el ejercicio de la libertad, el alcanzar un modo de vida digno en lo material y el desarrollo de capacidades que nos permitan la convivencia social. Actitudes y valores como la responsabilidad, el respeto por el otro, la solidaridad, aparecen en el horizonte de nuestras exigencias espontáneas para una vida humana, y todas las culturas las han desarrollado.

Aparece muchas veces, una especie de oposición entre lo humanístico y lo tecnológico. Tanto en la educación formal como en cierta visión cultural, muy instalada en la sociedad. Sin embargo, esta confrontación más aparente que real, se viene superando. Ya sea por observarse ciertos abusos contrarios al ser humano, en el uso de la Tecnología, como por el desarrollo de una mirada epistemológica más integral. Lo ético se reclama ante los abusos. Se la reclama para poner una especie de equilibrio.

Una demostración de que se está generando una nueva mirada, es que incluso en ámbitos formativos muy exigentes en lo tecnológico, se incorporan diseños formativos, que incorporan los saberes humanísticos. Como ejemplo, presentamos lo que sucede en el prestigioso Instituto Tecnológico de Massachusetts (MIT). Allí, el Profesor, Joichi Ito, enseña Ética, a futuros profesionales de la informática. La mayoría de ellos se convertirán en empleados de Google, Apple, IBM, Uber, o crearan sus propias empresas.

En una entrevista brindada a Xataka.com, en el año 2018, presenta varias puntualizaciones sobre este modelo formativo. Nos pareció interesante, darla a conocer, ya que nos brinda elementos para la reflexión y profundización en estas áreas de conocimiento y praxis, que nos parece, debemos integrar.

Entrevista

«Pregunta: ¿Cuál es su motivación personal para lanzar este curso?

Respuesta: Estoy preocupado por la inteligencia artificial y el uso de datos y algoritmos en la sociedad. Sus aplicaciones van desde evaluaciones de riesgos que se utilizan en el sistema de justicia penal -para tomar decisiones sobre la puesta en libertad bajo fianza o en libertad condicional, o incluso en sentencias- hasta determinar puntajes de crédito, las tasas de los seguros o las decisiones que tomarán los coches autónomos.

Toda esta nueva tecnología ha comenzado a extenderse al uso común sin suficiente aportación de las ciencias sociales y la sociedad en general. Muchos de estos sistemas tienen sesgos o se han construido sobre estructuras que no son suficientemente explicables o transparentes. Las personas están empezando a apreciar algunos de los problemas que esto acarrea, pero todavía no contamos con una base suficiente de ingenieros que entiendan las ciencias sociales ni de científicos sociales, abogados y reguladores que entiendan la tecnología.

Este curso trata de crear un entorno multidisciplinario para que los estudiantes del MIT, de la Facultad de Derecho y de la Escuela Kennedy de Harvard y de otros departamentos se reúnan para conocer y debatir estos temas.

P: ¿Qué comprende exactamente el curso? ¿Qué temáticas se tratan en específico?

R: Abordamos una amplia variedad de cuestiones, incluida la compleja interacción entre las organizaciones de gobernanza y los Estados soberanos; la proliferación de decisiones algorítmicas; los sistemas autónomos; el aprendizaje automático y cómo explicar su funcionamiento; la búsqueda del equilibrio entre regulación e innovación, y los efectos de la IA en la difusión de información. Todo esto junto con preguntas relacionadas con los derechos individuales, la discriminación y arquitecturas de control.

Las clases se dividen en varios temas. El primer día tratamos la autonomía, el diseño del sistema y la responsabilidad. El segundo día lo dedicamos íntegro a los sesgos de los algoritmos. El tercero, a cuestiones de propiedad, control y acceso. El cuarto día tratamos el tema de la gobernabilidad, la explicabilidad y la responsabilidad de la IA. El quinto tratamos sobre el la automatización del trabajo y el papel en ello de la regulación. La sexta y última clase es para las conclusiones en torno a la ética y la moral y sus fronteras.

P: Una de las sesiones del curso se centra en buscar la clave de un buen balance entre innovación y regulación. ¿Cuál es su postura al respecto?

R: Trabajamos en sistemas complejos autoadaptables que evolucionan y cambian. Es importante ser iterativo. Es importante entender la dinámica y la estructura de la ley, la tecnología, las normas culturales y sociales y las fuerzas del mercado. Cuando sea posible, deberíamos tratar de pensar para qué [con qué fin] estamos intentando optimizar; de observar el sistema general y los efectos de cualquier regulación en todas las estructuras y a todas las escalas para asegurarnos de estar al tanto y de monitorizar las consecuencias involuntarias.

La innovación es importante pero no puede ser solo una vía para ganar dinero. Los programadores deben considerar el posible uso indebido de sus creaciones. Los reguladores, por su parte, deben desarrollar protecciones contra el daño social o la creación de prácticas desfavorables como los monopolios, sistemas que aumentan el sesgo o la disparidad de ingresos u otras formas de daño.

P: También se discute en una de las sesiones cuáles son los efectos de la IA en la difusión de información

R: Todavía estamos aprendiendo cómo estos algoritmos afectan la información que recibimos. Incluso podrían ayudar a dar forma a nuestras reacciones ante ella. Los ecosistemas de información son complejos, y más aún con la introducción de la IA. Nuestro abordaje consiste en afrontar estas cuestiones desde una perspectiva más inclusiva. No tenemos respuestas fáciles.

P: ¿Cómo lidian en su día a día los desarrolladores e investigadores del MIT Media Lab con las cuestiones éticas ? ¿Cuál es su principal reto?

R: En el laboratorio usamos el término «inteligencia extendida», que reconoce que es importante comprender el aprendizaje automático y la ética en la sociedad, ya que se relacionan con sistemas adaptativos complejos. Esa es la razón de contar con investigadores de talla mundial en casi todas las áreas a la hora de trabajar con sistemas de inteligencia artificial: perfiles técnicos, sociales, filosóficos, psicológicos, legales y artísticos.

La mayoría del trabajo de nuestros investigadores abarca muchas de estas disciplinas tradicionales. Hay muchos desafíos dentro de cada una de estas áreas, pero el principal reto se encuentra en los propios sistemas computacionales, en cómo traducir conceptos entre estos campos tradicionales. Por ejemplo, las definiciones de imparcialidad y parcialidad en el aprendizaje automático no son las mismas en sociología o incluso en derecho o economía. Dedicamos mucho tiempo a imbuir a nuestros estudiantes (que son técnicamente algunos de los mejores del mundo) la capacidad de asimilar, comprender y relacionarse con el lenguaje utilizado en las humanidades, las leyes, las artes y la medicina.

P: ¿Cree que debería ser obligatorio que los estudiantes de informática reciban formación en aspectos éticos?

R: Sí.

P: Circulan desde hace unos meses algunos manifiestos como la Declaración de Barcelona para el adecuado desarrollo y uso de la inteligencia artificial en Europa o la carta abierta en la que Elon Musk y otros líderes piden a la ONU que nos proteja de los peligros de las armas autónomas. El asunto ha tenido también un espacio en el Foro de Davos del Foro Económico Mundial este 2018. ¿Cree que son importantes iniciativas como estas para alcanzar acuerdos a nivel global? ¿Participa el MIT en alguna?

Es absolutamente vital contar con acuerdos internacionales en torno a la IA. Estamos trabajando con expertos de todo el mundo para desarrollar nuevos estándares en esta área».

Observaciones finales

Es indispensable retomar preguntas que se encuentran vigentes desde la antigüedad como ser, ¿cómo debe actuar el hombre?, que es el estudio propio de la ética y agregar ¿Cuál es el impacto de la tecnología? ¿Qué cambios producen los mismos en nuestras vidas? ¿Cómo se debe enseñar la tecnología, frente un escenario que se encuentra en constante cambio debido a la aceleración del tiempo?

Para comprender la realidad hoy en día, debemos entender que nos movemos en un ámbito binario dado por las matemáticas y la física, que permitieron el desarrollo de la tecnología, la informática, la cibernética e inteligencia artificial. Esto trae consigo mismo la aceleración del tiempo que se nos presenta cada vez más diferente a los tiempos humanos, por lo cual nos cuesta asimilar el cambio y hasta que lo hacemos, vienen nuevas realidades.

Es importante considerar la necesidad que tienen los avances tecnológicos, de recibir los aportes de las ciencias humanas y sociales.  Se debe tener claro, que el fin por el cual se rige el hombre debe ser el bien común y se requiere que esto aparezca con claridad, en todos lo ámbitos y áreas de la educación. Esto nos permitirá evitar futuras rupturas y confrontaciones perjudiciales para el ser humano. ¿Una utopía? Tal vez, pero la única, la búsqueda de una Formación Integral, que nos permite tener una esperanza en un futuro mas solidario y responsable.

El hombre debe saber cómo actuar y de esta manera podrá dar una forma de comportamiento adecuado a las maquinas. La inteligencia artificial es el resultado de procesos del desarrollo tecnológico, es un avance que atraviesa la humanidad y se debe realizar con total prudencia y sentido humano.

Por Fernando González y Brenda Sztankeler                                      23/08/2020

Fuente: www.xataka.com

Imagen destacada: www.pixabay.com

Imagen en nota: www.pexels.com

Autor

Fernando Gonzalez

Profesor de Filosofia. Apasionado por la tecnología y los cómics. Informar, escuchar, dialogar.