Vida - 20/12/19 - 04:00 PM
Los humanos confían más en los robots que explican lo que hacen
La mayoría de los aparatos de inteligencia artificial creados hasta ahora no tienen la habilidad de saber qué es lo que aprenden y de explicar lo que hacen, y esto hace que la mente humana tienda a desconfiar de ellos.
Un grupo de científicos de la Universidad de California Los Ángeles (UCLA) ha comprobado que los humanos confían más en las máquinas de inteligencia artificial cuando estas explican lo que hacen, según un artículo que publica hoy la revista Science Robotics.
LEA TAMBIÉN: Descubren un mecanismo celular implicado en el tumor cerebral más agresivo
En un estudio financiado por la Agencia de Proyectos Avanzados de Investigación de Defensa (DARPA, en inglés) -la oficina del Pentágono responsable del desarrollo de tecnologías para uso militar-, los investigadores indicaron la necesidad de crear robots que puedan optimizar tanto la ejecución de tareas como la confianza humana.
En un estudio financiado por la Agencia de Proyectos Avanzados de Investigación de Defensa (DARPA, en inglés) -la oficina del Pentágono responsable del desarrollo de tecnologías para uso militar-, los investigadores indicaron la necesidad de crear robots que puedan optimizar tanto la ejecución de tareas como la confianza humana.
Para este experimento el equipo encabezado por Mark Edmonds empleó un aparato operado por inteligencia artificial capaz de abrir frascos de píldoras con varios dispositivos de seguridad y de explicar sus acciones al mismo tiempo y de distintas maneras.
Una prueba psicológica posterior en la que 150 estudiantes escucharon al robot mostró que las formas de explicación más aptas para inspirar confianza no se corresponden necesariamente con las acciones que permiten que el aparato se desempeñe de la mejor manera.
"En el pasado las máquinas estaban diseñadas para hacer exactamente lo que se suponía que debían hacer en el espacio de trabajo bajo control humano, de manera que sabemos exactamente qué hacen paso a paso", dijo en una rueda de prensa Song Chun Zu, profesor de Estadística y Ciencias de Computación en la UCLA.
Los investigadores opinan que el impulso de buscar explicaciones está arraigado profundamente en los procesos humanos de cognición, y estas desempeñan un papel central para cultivar una comprensión mutua, lo que promueve la confianza entre individuos y permite la colaboración.
La mayoría de los aparatos de inteligencia artificial creados hasta ahora no tienen la habilidad de saber qué es lo que aprenden y de explicar lo que hacen, y esto hace que la mente humana tienda a desconfiar de ellos.
Una prueba psicológica posterior en la que 150 estudiantes escucharon al robot mostró que las formas de explicación más aptas para inspirar confianza no se corresponden necesariamente con las acciones que permiten que el aparato se desempeñe de la mejor manera.
"En el pasado las máquinas estaban diseñadas para hacer exactamente lo que se suponía que debían hacer en el espacio de trabajo bajo control humano, de manera que sabemos exactamente qué hacen paso a paso", dijo en una rueda de prensa Song Chun Zu, profesor de Estadística y Ciencias de Computación en la UCLA.
Los investigadores opinan que el impulso de buscar explicaciones está arraigado profundamente en los procesos humanos de cognición, y estas desempeñan un papel central para cultivar una comprensión mutua, lo que promueve la confianza entre individuos y permite la colaboración.
La mayoría de los aparatos de inteligencia artificial creados hasta ahora no tienen la habilidad de saber qué es lo que aprenden y de explicar lo que hacen, y esto hace que la mente humana tienda a desconfiar de ellos.