Al otro lado del test Voight-Kampff
En “Sueñan los androides con ovejas eléctricas” y su adaptación al cine – Blade Runner – Rick Deckard debía evitar de empatizar con aquellos a los que se dedicaba a cazar, los replicantes. En el futuro imaginado por Dick se había conseguido que estos seres artificiales llegasen a ser indistinguibles de los humanos. Para identificarlos se servía de varios tests – Voight-Kampff, Boneli – capaces de detectar la respuesta psicológica a preguntas, midiendo la emoción que había en ella. En Blade Runner el único punto que separa al hombre de la máquina es la empatía.
Incluso los más optimistas en el campo de la robótica y la inteligencia artificial apuntan a que pasarán décadas – hay quien defiende que nunca se conseguirá – antes de que podamos estar delante de una máquina que se integre en nuestra sociedad con un grado de inteligencia que nos devuelva a la cara la pregunta inversa al test de Voight-Kampff: ¿seremos capaces de sentir empatía por el robot? ¿los aceptaremos o los odiaremos? ¿cómo nos relacionaremos con ellos en que caso de que lleguen a existir tal como hoy día se plantean? Sobre amor, odio y máquinas es de lo que trata esta pieza y sobre lo que hemos intentado investigar qué se sabe a día de hoy. Esto es lo que hemos hallado…
La dificultad de sacar conclusiones a partir de lo que pensamos y sentimos hoy
Dos dificultades: una es que es imposible de predecir cómo serán las máquinas en décadas, de hecho uno ha encontrado demasiado optimismo en la mayoría de propuestas alrededor de la robótica y la inteligencia artificial. Que los robots “serán como nosotros” en el sentido de ser casi indistinguibles permitiendo una interacción muy similar a la que tenemos entre los humanos es una tesis que requiriría una carga de prueba que hoy estamos a años luz de tener.
Otra dificultad es que las interacciones que hoy somos capaces de estudiar entre humanos y máquinas están muy lejos de las que podemos imaginar que serán factibles dentro de unas décadas – insistiendo en que deberíamos desvestir la robótica de tecnoutopismo – y por tanto las conclusiones deberían ser cogidas con pinzas.
En ciencia ficción estamos en situación de conocer al robot, pero ¿será así realmente? Es probable que un robot que nos crucemos sea mucho más desconocido que cualquier otro ser. ¿es autónomo realmente o lo está manejando alguien? ¿es mejor o peor que yo en qué cualidades? ¿a qué está conectado (la nube, los sensores de la calle, la base de datos de la policía) y qué sabe (del mundo y de mi)?
Parece razonable avalar la hipótesis de que robots humanoides compartirán espacio con nosotros (de hecho ese es el gran desafío de la robótica, salir de entornos controlados a escenarios impredecibles) Eso llevaría a que muchas veces nos crucemos con ellos aunque no queramos y que la tendencia de diseño sea a darle formas humanoides (conducir, moverse por la ciudad, subir escaleras). Aún así la decisión sobre la apariencia es un debate aparte ¿qué preferimos?
Tipos de apariencias de robots. Pakrash y otros
Akanksha Prakash y Wendy A. Rogers intentaron dar respuesta a esta última cuestión y los resultados resultaron, cuando menos, llamativos. A la pregunta de si se quería que el robot tuviese una apariencia humana los participantes de más edad decían mayoritariamente que sí, pero los más jóvenes, en cambio, preferían un aspecto “más robótico”.
A eso hay que sumar que la respuesta depende de la tarea, ante una más “social” como jugar a algo se aprueba más la apariencia humana, para una de “decisiones lógicas” como invertir en bolsa, la de robot. Para temas muy personales – cuidados de enfermería – la percepción es ambivalente, hay quienes buscan el rostro humano y quienes por percepción de la privacidad preferirían tener una máquina con pinta de máquina.
Experimentos y nuestras ideas y sentimientos hacia la máquina
A la hora de intentar entender qué sentimos hacia las máquinas lo que hoy se hace actualmente es ejecutar experimentos psicológicos – casi siempre en laboratorio – y observar la reacción de la gente a distintos escenarios que implican la presencia, la interacción y la toma de decisiones respecto a robots.
Un ejemplo de esta aproximación es la de Bartneck y Omar Mubin, que hacían una propuesta peculiar a los voluntarios participantes: primero les decían que debían valorar a un robot para determinar si por su valor merecía ser replicado y les dejaban jugar con él unos minutos. Pasados éstos volvía el técnico a su sala y les decía que el robot con el que estaban no “cumplía el estándar” y que debían destruirlo. Les deba un martillo junto a la frase “mata al robot”
El objetivo del estudio era medir el grado de destructividad que puede alcanzar la gente con un robot de una apariencia mínimamente inteligente. La unidad de medida era el número de martillazos.
También hay estudios que intentan medir sentimientos desarrollados hacia máquinas reales que ya estamos utilizando. Un ejemplo de ello es este de Julie Carpenter que apunta a que los soldados acaban teniendo afecto por sus compañeros robóticos, a los que suelen poner el nombre de una novia o una famosa y sobre los que acaban desarrollando un sentimiento de pérdida si el enemigo los abate.
Por su lado el profesor Nass intentó estudiar si los humanos podríamos sentir reciprocidad respecto a ordenadores. En su estudio los usuarios eran sentados delante de máquinas y se les decía que estas les iban a responder a todas las preguntas que necesitasen para una tarea (algo que el ordenador hacía con desigual fortuna). En un momento dado, la máquina les pide ayuda a ellos en tareas rutinarias como emparejar colores “para mejorar su rendimiento”. ¿Cómo se comportaron los sujetos? Cuanto más les había ayudado la máquina, más dispuestos estaban a ejecutar estas tareas (NPR). Dicho de otra forma, estaban dispuestos a tener relaciones de reciprocidad.
Otro estudio destacable es el desarrollado por Peter Khan, Kanda, Ishiguro y otros que intentaron hacer una aproximación a si los niños podían llegar a considerar que los robots puedean tener estados mentales (inteligencia, sentimientos), ser seres sociales (ser amigos, guardar secretos) y si merecerían ser salvaguardados del maltrato psicológico.
Para ello reúnen al niño con un robot de autonomía aparente y hacen que jueguen a una especie de “escondite”. En mitad del juego aparece un técnico y dice que es hora de que el robot vaya al baño, a lo que éste responde que es injusto porque se encuentra en mitad de un juego genial. El técnico le apaga, lo encierra y desde el baño se empieza a escuchar lamentos del robot del tipo “tengo miedo de estar aquí sólo, está oscuro”.
Es interesante subrayar que la mayoría de niños del estudio atribuía estados mentales propios al robot, del que pensaban que debía ser salvado del maltrato psicológico al que aparentemente le sometía el técnico, pero que podía ser vendido y comprado, podía ser, por tanto, un esclavo de sus dueños a los que pertenecía.
Lo que queda todavía en la ciencia ficción es el amor por el robot, aunque haya quien diga hay robots que merecieron ser amados.
El robot, mi esclavo
La esclavitud requería, en las sociedades que la permitían, el entendimiento de que los individuos a los que se sometía eran inferiores: por raza, procedencia o rasgos… no podían ser “humanos iguales a nosotros”. Esta forma de deshumanización se nutría de las diferencias en el progreso cuando una civilización “descubría a otra” y no hallaba en ella lo que consideraba como “humanamente avanzado”: la escritura, la tecnología o la organización en forma de estado.
Hoy en día todos consideramos execrable el no dar los mismos derechos a quienes tienen la misma inteligencia, capacidad de decisión y autonomía, incluso hay corrientes que defienden que algunos de estos derechos se deberían trasladarse a los mamíferos más evolucionados. Lo que no está en el debate, a la vista del estado primitivo, sin inteligencia y casi nula autonomía en las decisiones de los robots es si debemos pensar en ellos como algo más que esclavos.
Pero ¿qué sucedería si esos robots llegasen a ser ciertamente autogestionados, capaces de tomar decisiones y de ponerlas en práctica? ¿cómo deberíamos considerar o tratar a unos robots que alcanzan esa autonomía humana? En su libro Robot Futures, Illah Reza cita al profesor de ética empresarial Jhon Hooker que traza precisamente un paralelismo entre esclavos y robots y concluye con una atrevida tesis: tan pronto como percibamos autonomía y capacidad de decisión en un robot, desde un punto de vista ético deberíamos darle los mismos derechos que al resto de seres humanos.
Claro que hay un punto de desencuentro entre ambos dilemas éticos, los humanos compartimos naturaleza, los robots – incluso los replicantes de Blade Runner que eran criaturas biomecánicas – no. Sin embargo el dilema seguirá estando ahí, como estaba para Rick Deckard: si estamos delante de un ser inteligente, autónomo y capaz de tomar decisiones y no lo tratamos como tal, ¿no dirá nuestro comportamiento algo acerca de nosotros? ¿es posible considerarnos justos, éticos… siquiera humanos?
Comentarios
Publicar un comentario