¿PUEDEN LAS MÁQUINAS APRENDER COMPORTAMIENTOS ÉTICOS

La Inteligencia Artificial llegó a una nueva etapa en su desarrollo: el grupo de Inteligencia Artificial (IA) de Elon Musk decidió contratar “policías tecnológicos”. Estos policías no son vigilantes futuristas para destruir un mal programa de IA, ni forman parte de una saga de Terminator, sino que se encargan de la búsqueda de quienes abusan de la IA con objetivos ilegales o no éticos. La Inteligencia Artificial llegó a una nueva etapa en su desarrollo: el grupo de Inteligencia Artificial (IA) de Elon Musk decidió contratar “policías tecnológicos”. Estos policías no son vigilantes futuristas para destruir un mal programa de IA, ni forman parte de una saga de Terminator, sino que se encargan de la búsqueda de quienes abusan de la IA con objetivos ilegales o no éticos. 


A pesar de eso, este tipo de policías aún no logran cubrir todos los miedos que uno se podría imaginar al escuchar el concepto de inteligencia artificial, ya que para lograr esto se necesitará transparencia y confianza para cambiar las mentes de lo que es nuestro inevitable futuro.


Esta necesidad de mayor transparencia incita a la creación de nuevas plataformas innovadoras. En ese sentido, el MIT Media Lab ha creado una Máquina Moral, la cual se utiliza para desarrollar una toma de decisiones éticas para los autos autónomos.


Una simple simulación desafía a los usuarios a decidir el resultado del accidente de un auto autónomo, y las elecciones pueden producir sensaciones incómodas. Este tipo de escenarios demandan decisiones difíciles: si un vehículo autónomo debe virar enseguida, ¿debe chocar la pared matando al doctor y al gato que van dentro del auto? O debe virar hacia la vereda, matando a una viejita, un perro y un hombre sin hogar. En la vida real, este tipo de elecciones requieren una respuesta inmediata del conductor, y las elecciones no son fáciles ni evidentes. Así, combinando las respuestas con machine learning, los investigadores pueden hacer un mejor desarrollo moral que ayuda a las máquinas en el proceso de la toma de decisiones.


La participación en este tipo de ejercicios aumenta el entendimiento de las redes neuronales, esa es la razón por la que Siri entiende las preguntas o Facebook sugiere etiquetas en las fotos. Así pues, las redes neuronales hacen que la IA sea más inteligente, permitiendo una mayor racionalización del cerebro humano.


A medida que las computadoras son más capaces de juntar, procesar y utilizar grandes cantidades de datos, estas redes se hacen más efectivas. Recientemente, para detener el spam y el abuso online, Yahoo se volcó a la IA, respaldada por la red neuronal, con el objetivo de filtrar por medio de comentarios, y el resultado obtenido fue que gracias a este mecanismo se hizo un mejor trabajo que el que haría un humano.


Hasta ahora, no se ha desarrollado ninguna fórmula de respuestas y machine learning que garantice totalmente la seguridad de los peatones y conductores. Hasta que vivamos en un ecosistema de vehículos totalmente conectado, sin humanos detrás del volante, habrá accidentes. Lo que necesitamos hacer es utilizar la tecnología no sólo para informar el desarrollo de la IA, sino también para ayudar a desarrollar mayor confianza en las facultades para la toma de decisiones de nuestras máquinas inteligentes. Los autos autónomos pueden nunca ser inmunes a los dilemas éticos, pero los tenemos que preparar para responder de manera que se minimice el daño.


Por Rubén Belluomo, Gerente Comercial de Infor Cono Sur

Read 653 times
Revista I+T

Email This email address is being protected from spambots. You need JavaScript enabled to view it.

REVISTA I+T

Dirigido a personas con necesidades de informarse en soluciones y tendencias IT, Enfocada en entrevistas y contenido de interés. Perfil lector de alto impacto.

Galerías

Top