I.A. ÉTICA
- fjruizmo
- 20 abr 2017
- 2 Min. de lectura

Hace unos días leía un artículo que me resultó interesante. Lo firmaba Susan Leigh Anderson, tenía por título "La promesa de las máquinas éticas" y puede recuperarse en Syndicate Project. En el mismo, la autora nos hablaba de cuestiones relacionadas con la futura inteligencia artificial (I.A.) y la ética en la misma; es decir, el comportamiento ético de las futuras –cada vez más cercanas- máquinas inteligentes.
Una de las cuestiones que se apuntaban en dicho artículo era la necesidad de una “ética” para cada máquina inteligente que guarde relación directa con la actividad de la misma. Así, no ha de ser la misma para una encargada del cuidado de personas ancianas o con minusvalía, que aquellas encargadas del rescate en catástrofes.
También me resulta muy interesante el dilema que puede surgir en situaciones muy determinadas y para el cual no disponemos de respuestas totalmente satisfactorias. Un ejemplo puede ser el siguiente: la citada máquina encargada de rescatar personas en siniestros que, un momento dado, detecta un cuerpo del cual no puede certificar si todavía se mantiene con vida pero cuyo acceso es sencillo, y un grupo más lejano y de mayor dificultad de acercamiento pero que sí se mantienen con vida. ¿Qué ha de hacer la máquina? ¿Sacrifica la posible vida del cuerpo cercano en favor de los más lejanos? ¿Pueden tomar ustedes una decisión por sí mismos, sin atender a planes preestablecidos?
Por otra parte, nos podemos encontrar con el hecho que haya máquinas que presenten comportamientos éticos mucho más elevados que el propio ser humano, en tanto que no le habrán sido implementados los vicios y defectos que le son propios a éste y sí sus virtudes.
Y otra de las grandes cuestiones a tratar será quiénes han de ser las personas que decidan las “éticas” con las que programar dichas máquinas. Ya existen comités éticos que están elaborando protocolos básicos sobre los cuales habrán de cimentarse dichas éticas. Sin embargo, cabe pensar –conociendo el pensar del ser humano- que, a medida que la IA se convierta en una realidad, los intereses encontrados y enfrentados que conforman la realidad social intentarán imponer los mismos en su propio beneficio.
Puede resultar muy interesante que se creen máquinas más honradas que los propios humanos, para nuestra vergüenza.
También cabe preguntarse que, en tanto que “inteligentes”, estas máquinas aprenderán a partir de sus propias experiencias. ¿Adquirirán comportamientos no “éticos”? ¿Lo harán a partir de su relación con el ser humano?
Comments