Globedia.com

×
×

Error de autenticación

Ha habido un problema a la hora de conectarse a la red social. Por favor intentalo de nuevo

Si el problema persiste, nos lo puedes decir AQUÍ

×
cross

Suscribete para recibir las noticias más relevantes

×
Recibir alertas

¿Quieres recibir una notificación por email cada vez que 20minutos.es escriba una noticia?

Máquinas con ética, ¿es posible?

31/10/2018 01:00 0 Comentarios Lectura: ( palabras)

HELENA RESANO. PERIODISTA

image

Las previsiones más optimistas hablan de que un 40% de las profesiones que hay actualmente serán sustituidas por máquinas de aquí a nada, en 2025. Las más pesimistas hablan de la mitad de los trabajos. Lo que nadie discute es que vamos camino de un mercado laboral en el que los robots harán aquellos trabajos más repetitivos, menos cualificados.

En teoría esa revolución servirá para facilitarnos la vida y acelerar los procesos de producción. Conviviremos con máquinas o robots que harán de una forma muy eficaz su trabajo, tal y como nosotros les digamos o los programemos. Pero no tendrán capacidad de decisión, en teoría, y eso generará más de un problema.

Efectivamente en todo este proceso surgen dilemas, dilemas morales que solo un hombre, y no una máquina, puede resolver. Como los coches que dentro de poco circularán por nuestras carreteras sin un conductor.

Un grupo de investigadores lleva meses realizando encuestas entre más de cuatro millones de personas para determinar cuál es la moral humana más común. Cuáles son esos códigos éticos asumidos por todos y que deberán trasladarse a las máquinas, especialmente a aquellas que pueden matar a personas. Lo han llamado el Moral Machine, una especie de enciclopedia gigante sobre qué es el juicio moral, qué es lo que está bien y lo que no. Y sorprende que no hay una moral universal, esto también va por barrios. Especialmente si estamos hablando de situaciones límite en las que las decisiones se toman en segundos y de ellas dependen las vidas de terceros. Como con los coches sin conductor. Máquinas que en cuestión de segundos tendrán que decidir si salvan a los pasajeros que llevan dentro, a los peatones que hay fuera o a los que están en el coche de en frente. ¿Y cómo determinamos el algoritmo? ¿Qué debe decirle el matemático a esa máquina? ¿Qué tipo de programación moral tenemos que hacer en esa máquina?

No es fácil. Y los resultados llaman la atención: si se trata de elegir a quién salvar, los asiáticos tienen predilección por los ancianos. En Europa y en Estados Unidos, en cambio, salvarían a una persona atlética antes que a una persona obesa. Y en los países donde las desigualdades son más evidentes, los encuestados prefieren salvar la vida a aquellos peatones que tienen aspecto de ejecutivo. En Alemania han decidido atajar este debate estableciendo que en ningún caso el coche podrá elegir a quién salvar o a quién no. Se evaluarán los riesgos y se minimizarán las víctimas. Pero no se puede elegir a alguien por su edad, aspecto o género, han decidido.

Es curioso, porque cuando he comentado esta noticia con mis hijos me han mirado extrañados sin entender muy bien por qué se planteaba ese dilema: «Lo que hay que hacer es que ese coche no mate a nadie, ¿no, mamá?». Sí, evidente. Es lo más lógico, pero la lógica no siempre se impone.


Sobre esta noticia

Autor:
20minutos.es (31288 noticias)
Fuente:
20minutos.es
Visitas:
1589
Licencia:
Creative Commons License
¿Problemas con esta noticia?
×
Denunciar esta noticia por

Denunciar

Comentarios

Aún no hay comentarios en esta noticia.