3. ¿Un coche sin piloto tiene que matar a un pasajero para salvar a cinco peatones?
Imagínate: vas en un coche no tripulado por una carretera de doble sentido cuando, de repente, cinco niños salen corriendo hacia la calzada. El coche tiene tres opciones: atropellar a los niños, chocar con un coche en el carril contrario o chocar contra un árbol en el arcén. Cinco personas podrían morir en el primer caso, dos en el segundo y una en el tercero. ¿Cómo se programa un coche para esta eventualidad? ¿Debería intentar salvar al pasajero o salvar tantas vidas como fuera posible?
¿Estarías dispuesto a subirte a un coche que podría decidir matarte? ¿Te subirías con tu hijo? 3. ¿Todos los drones tienen que operar bajo las mismas reglas o podrás pagar más por un coche que salve primero a un pasajero?
4. ¿Qué valores morales deberíamos poner en la IA?
Imagina un mundo con robots inteligentes -máquinas muchas veces superiores a los humanos- que no distinguen el bien del mal, la justicia de la injusticia. Surgirían muchos problemas. Pero inculcarles valores morales es aún más problemático, porque nos corresponde a los humanos elegir esos valores.
¿Qué valores hay que privilegiar? ¿Quién debe decidir qué puntos de vista son los «correctos»? ¿Deben todos los países aceptar un determinado conjunto de valores? ¿Y podemos dar a un robot la capacidad de cambiar de opinión?