top of page

LA INTELIGENCIA ARTIFICIAL (IA), LAS MÁQUINAS, LOS PRINCIPIOS ÉTICOS Y VALORES MORALES COMPARTIDOS

Actualizado: 1 ene 2021



Dr. Edmundo ESTEVEZ M

Profesor Principal Carrera de Medicina Universidad Central del Ecuador. Especialista en Ciencias Básicas Biomédicas. Máster en Bioética y Derecho por la Universidad de Barcelona


Empecemos señalando que la palabra <inteligencia> proviene del latín intelligentia o intellēctus, que a su vez provienen del verbo intellegere —término compuesto del prefijo inter («entre»), el verbo legere («leer, escoger, separar»)— que significa comprender o percibir, el sufijo -nt- que indica agente y el sufijo -ia- que indica una cualidad. Todo esto junto, indica la cualidad (-ia) del que (-nt) sabe escoger (legere) entre (inter-) varias opciones. Es decir, ser inteligente es saber escoger la mejor alternativa entre varias, y también saber leer entre líneas. En definitiva, una persona inteligente es la que sabe discutir, analizar, deliberar y emitir un veredicto (tomar decisiones).


La palabra artificial (hecho por el hombre) viene del latín artificialis, formada por ars, artis =obra o trabajo que expresa mucha creatividad. La palabra latina artis se asocia a una raíz indoeuropea -ar- (ajustar, hacer, colocar). Facere = hacer y -alis = relación o pertenencia.


Según el Diccionario de la Real Academia, define a la IA como una disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico.


En pocas palabras entonces, la Inteligencia Artificial (IA) correspondería a la capacidad de simulación de la inteligencia humana por parte de las máquinas.


Dicho de otro modo, ésta es una disciplina científica que trata de crear sistemas capaces de aprender y razonar como lo hace un ser humano. Se pretende que estos sistemas aprendan de la experiencia, averigüen cómo resolver problemas frente a ciertas condiciones dilemáticas, que contrasten información, en definitiva, lleven a cabo tareas lógicas y “razonadas”.


El hecho de que un sistema posea hardware humanoide y actúe físicamente como tal es un campo perteneciente a la robótica, y se aleja del concepto de la IA, que se centra más en emular el modo de pensar y razonar de los humanos.


Sin embargo, cabe destacar que, de conseguir un sistema que pudiera aprender y pensar como un humano, poseería notables ventajas sobre éste gracias a su velocidad y capacidad de cálculo y de toma de decisiones.


En épocas recientes se han explorado nuevas aplicaciones de la IA, así como su posible impacto social: los sistemas de reconocimiento facial, juguetes inteligentes y la optimización de la atención médica. También han sido consideradas las responsabilidades de los desarrolladores y formuladores de políticas asociadas con las tecnologías emergentes.


Al respecto, las principales empresas tecnológicas están construyendo automóviles autónomos, con el propósito de aumentar la movilidad de las personas mayores o con discapacidad (PCD) o en situación de discapacidad para salvar vidas reduciendo al máximo el error del conductor; sin embargo, en caso de emergencia, ¿debería el coche autónomo priorizar la vida de los pasajeros o la vida de los peatones?


Del mismo modo, algunos jueces y funcionarios de prisiones están interesados en utilizar la IA para desarrollar herramientas de “predicción de riesgos” para mejorar la toma de decisiones respecto a posibles sentencias penales, audiencias de fianzas y excarcelación con libertad condicional de los reos.


Algunos países como Italia y Japón están investigando sobre el posible uso de robots para cuidar y proporcionar compañía a su población de edad avanzada. También se están construyendo robots sexuales con IA sofisticada.


Inmediatamente surgen las cuestiones éticas respeto a los robots de acompañamiento o de entretenimiento sexual. ¿Podrán entonces los humanos casarse con robots? ¿Cómo afectaría esto en nuestras relaciones con los demás seres humanos?


En el futuro, en el ámbito de la investigación en IA, se espera crear inteligencia artificial general (AGI) que sería capaz de realizar cualquier tarea intelectual propia de la naturaleza humana. Esta forma de IA llamada <fuerte> sería capaz de pensar y razonar, exhibiría sensibilidad (intermediada por las emociones posiblemente) y también conciencia.


Se estima que aproximadamente el 47 % de los empleos norteamericanos podrían perderse debido a la IA y la automatización en los próximos 20 años. ¿Cómo vamos a proceder para ayudar a las personas a adaptarse a este nivel de desempleo humillante? ¿Deberá aplicarse impuestos a los robots que sustituyan a los trabajadores humanos desplazados? (Liao, 2020)


La toma de decisiones, un camino entre las emociones y la razón. ¿Y las máquinas?


En nuestra vida diaria llevamos a cabo juicios de valor constantemente. Nada pasa desapercibido, todo valoramos. Por ejemplo, seleccionamos un tipo de ropa y no otra dependiendo de numerosos factores, pensamos si saldremos a pasear o nos quedaremos en casa estudiando, si llevamos o no paraguas y abrigo, el celular a la mano o dinero al bolsillo, etc.


La mayor parte de las veces decidimos de manera preconsciente, es decir sin detenernos a pensar, como cuando decidimos bajarnos del auto por la puerta que está a nuestra derecha y no a la izquierda.


Esto no significa que nuestro cerebro no esté procesando información relevante para esto; todo lo contrario, en cada decisión que toma nuestro cerebro, se evalúa la diferencia entre los resultados esperados y los resultados obtenidos, hecho conocido como el "cálculo del error de predicción de recompensa". Esta predicción influye sobre nuestro comportamiento. Un resultado positivo o placentero se acompaña de liberación de dopamina; lo contrario se asocia a la amargura e inhibición de la producción de dopamina (hormona del placer). Participan de este circuito la noradrenalina y la serotonina. Los ganglios de la base o núcleos grises centrales son los encargados de evaluar el error de predicción. Este circuito nervioso es esencial en procesos muy relevantes como la motivación y los aprendizajes (Pessoa, 2010).

Entonces, de lo que se trata es de seleccionar el curso de una acción dentro de un conjunto de cursos posibles, en base a valores asociados y a recompensas o refuerzos anticipados: el balance entre recompensas y esfuerzos anticipados es la clave en la toma de decisiones (human decision-making). Esto es lo que termina guiando el equilibrio entre emoción y razón.


Dicho de otra manera, cada día nos enfrentamos a numerosas situaciones que nos obligan a considerar simultáneamente una enorme multitud de factores relevantes sobre los que tenemos que tomar decisiones. Estas, a su vez, nos permiten obtener las recompensas necesarias para adaptarnos al entorno, siendo a veces cruciales para nuestro bienestar y supervivencia.


Además, estas recompensas son capaces de inducir sentimientos subjetivos de placer y contribuir a la generación de emociones positivas. De esta forma, incluso los estímulos que las preceden quedan marcados con un valor motivacional (Bueno, D., 2020).


Los vehículos autónomos están a la vanguardia del desarrollo de la inteligencia artificial y están diseñados para operar sin ninguna intervención humana. Se espera que revolucione el transporte público y privado, con la perspectiva de salvar vidas, reducir la congestión, mejorar la movilidad y mejorar la productividad en general. El futuro de los vehículos autónomos, sin embargo, se discute debido a las preocupaciones éticas y psicológicas sobre su comportamiento en situaciones de tráfico críticas y no rutinarias que potencialmente implican muertes. El reto en el entrenamiento de la inteligencia artificial, el razonamiento moral, está cumpliendo con las expectativas de la sociedad sobre los principios éticos que operarían en la toma de decisiones de las máquinas. Una pregunta sin resolver es cómo se debe entrenar a un vehículo autónomo para actuar cuando - independientemente de sus acciones - el resultado de un incidente o decisión crítica conduzca a la muerte de alguien (D., Frank, 2019).


El juzgamiento moral y la toma de decisiones


El hilo conductor de este complicado asunto tiene su correlato en los numerosos estudios basados en dilemas morales, inicialmente formulados por Unger (1966), luego por Philippa Foot (1967), Hauser (2008) y Greene (2001, 2004). Evidentemente, y con el propósito de facilitar su interpretación estos dilemas han sido refinados y restringidos al máximo en su variabilidad. Los dilemas más usados han sido el del accidente en carretera y la tapicería nueva del auto, el de la donación humanitaria a organizaciones internacionales para niños, el de Diana en el tranvía, el de Paco sobre el viaducto y el de la “machine moral” con sus numerosas variantes, entre otros.


De su aplicación se concluye que cuando los sujetos formulaban su juicio a contracorriente, se mostraba una activación mucho mayor del córtex prefrontal dorsolateral, zona a cargo de la planificación y el razonamiento. En el caso de los sujetos que terminan por decidir que lo adecuado es el cálculo utilitarista había una activación significativa de la zona frontal del cerebro, aunque les llevaba más tiempo decidir en el caso de los dilemas personales al superar algunas barreras emocionales (Cortina, 2012; Greene, 2004)


Finalmente, el propio Greene deja planteadas las siguientes interrogantes en sus estudios formidables sobre cognición moral:

¿Cómo decidimos qué está bien o qué está mal? ¿Por qué la gente no está de acuerdo frecuentemente sobre cuestiones morales?

Cuando estamos de acuerdo, ¿de dónde viene ese acuerdo?

¿Puede una mejor comprensión de la moral ayudarnos a resolver los problemas que nos dividen?


Se esperan respuestas cada vez más concluyentes, analizando la mecánica del pensamiento moral, con miras a mejorar las decisiones que tomamos como individuos y como sociedad.

Gran parte de estas investigaciones se han centrado en comprender las contribuciones respectivas de los procesos automáticos "rápidos" (como las "reacciones intestinales" emocionales) y los procesos controlados "lentos" (como el razonamiento y el autocontrol).


Bien vale estudiar aquí a Daniel Kahneman (Premio Nobel de Economía) con su obra monumental: pensar rápido, pensar despacio, así como los singulares aportes sobre toma de decisiones en salud, realizados por Alicia Zavala C.


Pronto estarán entre nosotros los vehículos autonómicos, los robots y otros recursos tecnológicos dotados de IA. Hay que estar preparados para convivir con ellos.


Colofón


En el futuro veremos máquinas autónomas actuando en el mismo medio ambiente como seres humanos, en áreas tan diversas como la conducción, la tecnología de asistencia y el cuidado de la salud. Pensemos estos escenarios compartidos con vehículos autónomos, robots acompañantes de ancianos y sistemas de apoyo al diagnóstico médico.


También será necesario pensar que los humanos y las máquinas a menudo necesitarán trabajar juntos y acordar decisiones comunes. Así, los sistemas colectivos de toma de decisiones serán híbridos y muy necesarios para unos y para otros.


En estos escenarios, tanto las máquinas como los sistemas de toma de decisiones colectivos deben seguir alguna forma de valores morales y principios éticos (adecuados al lugar donde actuarán, pero siempre alineados con los humanos, con nosotros, los creadores), así como las limitaciones de seguridad. De hecho, los humanos aceptarían y confiarían en más máquinas que se comporten tan éticamente como otros seres humanos en el mismo entorno. También, estos principios facilitarían que las máquinas determinen sus acciones y expliquen sus comportamientos en términos comprensibles para los humanos. Además, a menudo las máquinas y los humanos tendrán que tomar decisiones juntos, ya sea por consenso o llegando a un compromiso programado.


Esto se facilitaría compartiendo valores morales y principios éticos entre máquinas y humanos (Greene, 2016).


Bienvenidos al mundo de la inteligencia artificial





319 visualizaciones0 comentarios

Entradas Recientes

Ver todo
bottom of page