La mayoría de las personas están más preocupadas por los riesgos inmediatos de la inteligencia artificial, como perder el trabajo, que por un futuro teórico en el que la IA amenace a la humanidad.
Montevideo | Todo El Campo | El ser humano suele ser más inmediatista que largoplacista. Es una característica que parece ir afianzándose y tiene que ver con aquello de “vivir el ahora, en el futuro se verá”, o frases parecidas. Eso no es bueno ni malo en sí mismo, depende en qué momento y sobre qué asuntos se asuman conductas inmediatistas o de las otras.
Los ejemplos de ese comportamiento humano son muchos y se pueden descubrir en todas las áreas de la acción humana, también respecto a algo tan desafiante y disruptivo como la inteligencia artificial (IA), según se manifestó en una investigación realizada por la Universidad de Zúrich (Suiza) y que demostró que para la humanidad, son más alarmantes los riesgos actuales que genera esa tecnología revolucionaria, que los escenarios a largo plazo, que son mucho más apocalípticos.
“La mayoría de las personas generalmente están más preocupadas por los riesgos inmediatos de la inteligencia artificial que por un futuro teórico en el que la IA amenace a la humanidad”, dice un artículo de la citada Universidad.
En lo que todos coincidimos es que la llegada de la IA al mundo va “asociada a riesgos”, pero no todos valoramos esos peligros de igual forma: “Una percepción generalizada hace hincapié en los riesgos teóricos a largo plazo, como el de que la IA amenace potencialmente la supervivencia de la humanidad. Otro punto de vista común se centra en las preocupaciones inmediatas, como la forma en que los sistemas de IA amplifican los prejuicios sociales o contribuyen a la desinformación. Algunos temen que enfatizar los dramáticos ‘riesgos existenciales’ pueda distraer la atención de los problemas actuales más urgentes que la IA ya está causando hoy en día”.
ESTUDIO DE LA UNIVERSIDAD DE ZÚRICH: TRES GRUPOS DE PERSONAS.
Para poner luz en esos puntos de vista diversos, un grupo de politólogos de la Universidad de Zúrich (UZH) realizó tres experimentos a gran escala en los que participaron más de 10.000 personas en Estados Unidos y el Reino Unido.
Un grupo de personas se centró en los riesgos catastróficos de la IA y la amenaza que ésta representará en el futuro; a otro grupo sobre las amenazas actuales, como la discriminación o la desinformación; y al tercer grupo sobre los posibles beneficios de la IA.
“El objetivo era examinar si las advertencias sobre una catástrofe lejana en el futuro causada por la IA disminuyen el estado de alerta a los problemas actuales del presente”, se explicó.
MAYOR PREOCUPACIÓN POR LOS PROBLEMAS ACTUALES.
El resultado fue una mayor preocupación por los problemas del momento. El profesor Fabrizio Gilardi del Departamento de Ciencias Políticas de la UZH, explicó: Nuestros hallazgos muestran que los encuestados están mucho más preocupados por los riesgos presentes que plantea la IA que por las posibles catástrofes futuras”.
Uno de los temores actuales es por “el sesgo sistemático en las decisiones de la IA y la pérdida de puestos de trabajo debido a la IA. El estudio, sin embargo, también muestra que las personas son capaces de distinguir entre los peligros teóricos y los problemas concretos y tangibles y tomar ambos en serio”.
“Nuestro estudio muestra que la discusión sobre los riesgos a largo plazo no se produce automáticamente a expensas de estar alerta a los problemas presentes”, dijo Emma Hoes. Gilardi, coautora de la investigación. Añadió que “el discurso público no debería ser ‘esto o lo otro’”, sugirió; por el contrario, “se necesita una comprensión y apreciación simultáneas de los desafíos inmediatos y potenciales futuros”.
Lo que está sucediendo es que en el debate público, a menudo se expresan temores de que centrarse en escenarios futuros sensacionalistas distraiga la atención de los problemas urgentes del presente.
La investigación de la UZH es la primera en entregar datos sistemáticos que muestran que la conciencia de las amenazas reales persiste incluso cuando las personas se enfrentan a advertencias apocalípticas, como por ejemplo el universo dominado por máquinas con IA.
El artículo científico completo fue publicado en la revista científica Proceedings of the National Academy of Sciences (PNAS): Las narrativas de riesgo existencial sobre la IA no distraen de sus daños inmediatos | PNAS
En base a nota de la UZH:
Imagen de TeamVox.
Compartir
Comparte este contenido en tus redes sociales!