Favorito

¿Debería ser regulada la Inteligencia Artificial?

Posted by Paul Lara  on 7 sep, 2017
Paul Lara 

Comparte este contenido:

¿Debería Ser Regulada La Inteligencias Artificial?

La Inteligencia Artificial Conlleva Responsabilidad, Por Lo Cual Muchos Investigadores Piden Que Se Regule Sin Desincentivar La Innovación.

La Inteligencia Artificial conlleva responsabilidad, por lo cual muchos investigadores piden que se regule sin desincentivar la innovación.

Hay preguntas que seguramente te estás haciendo en estos momentos, y que tienen que ver con una de las tecnologías que está cambiando el mundo ¿Debería ser regulada la inteligencia artificial? ¿Puede ser regulada? Y si es así, ¿cómo debería darse su regulación?

KEY INSIGHT


  • Muchas personas en el campo de la IA están trabajando para asegurar que ésta se desarrolle de manera beneficiosa, sin restricciones innecesarias para los investigadores y desarrolladores.
  • Hay desacuerdo entre los investigadores de IA sobre cuál puede ser el riesgo de este desarrollo, cuándo podría surgir ese riesgo y si esta tecnología podría plantear uno existencial, pero pocos investigadores creen en un riesgo potencial.

La inteligencia artificial (AI) ha estado evolucionando tan rápidamente, y su impacto tiene el potencial de ser tan grande que muchos prefieren no esperar y aprender de los errores, sino planificar y regular de forma proactiva.

 

Es cierto que las cuestiones relativas a como la IA conllevará pérdidas de puestos de trabajo, al desarrollo masivo de vehículos autónomos, a la toma de decisiones algorítmicas y a los “bots” que requieren atención por parte de los responsables políticos y de comercio. A largo plazo, los posibles impactos de la inteligencia artificial abarcan todo el espectro de beneficios y riesgos de una mala programación que ponga en peligro a la humanidad. Todo ello conlleva a una situación especialmente difícil para los posibles reguladores.

 

Muchas personas en el campo de la IA están trabajando para asegurar que ésta se desarrolle de manera beneficiosa, sin restricciones innecesarias para los investigadores y desarrolladores. Recordarás que en enero de este año, algunas de las principales mentes que trabajan en esta tecnología se reunieron en una conferencia en Asilomar, California. Resultado de esta reunión se crearon 23 principios que representan una guía parcial para ayudar a asegurar que la inteligencia artificial se desarrolle de manera beneficiosa para todos. Hasta la fecha, más de dos mil 300 han firmado estos principios.

 

Sin embargo, los principios de aspiración por sí solos no son suficientes, si no se ponen en práctica, y queda una pregunta: ¿es necesaria la regulación y supervisión gubernamental para garantizar que los científicos y las empresas de IA sigan estos principios y otros como ellos?

 

Entre los firmantes de los Principios de Asilomar está Elon Musk, quien recientemente llamó la atención por sus comentarios en una reunión de la Asociación Nacional de Gobernadores, donde pidió un organismo regulador para supervisar el desarrollo de la inteligencia artificial. En respuesta, las organizaciones de noticias se centraron en sus preocupaciones de que la IA represente una amenaza existencial. Y su sugerencia suscitó inquietudes con algunos investigadores que se preocupan de que las regulaciones, en el mejor de los casos, serían inútiles y equivocadas, y en el peor, sofocarían la innovación y darían una ventaja a las empresas en el extranjero.

 

Hay desacuerdo entre los investigadores de IA sobre cuál puede ser el riesgo de este desarrollo, cuándo podría surgir ese riesgo y si esta tecnología podría plantear uno existencial, pero pocos investigadores creen en un riesgo potencial, que no sea en el de pérdida de empleos que afecten la sociedad.

 

El número de desarrolladores que firmaron los Principios de Asilomar, así como las cartas abiertas sobre el desarrollo de una IA beneficiosa, demuestra que existe un consenso en que se necesita hacer más para comprender y abordar los riesgos conocidos y potenciales de la inteligencia artificial.

 

Es importante que conozcas algunos de los principales puntos que los investigadores firmaron para que comprendas las preocupaciones y por dónde podría venir la regulación:

 

  • Enlace de la Política Científica: debe haber un intercambio constructivo y saludable entre los investigadores de AI y los responsables de la formulación de políticas
  • Cultura de la investigación: se debe fomentar una cultura de cooperación, confianza y transparencia entre los investigadores y desarrolladores de IA
  • Prevención de Carreras: los equipos que desarrollan sistemas de Inteligencia Artificial deben cooperar activamente para evitar cortes en las normas de seguridad
  • Importancia: la AI avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe ser planeada y administrada con cuidado y recursos proporcionales
  • Riesgos: Los riesgos que plantean los sistemas de IA, especialmente los riesgos catastróficos o existenciales, deben estar sujetos a esfuerzos de planificación y mitigación acordes con el impacto esperado.

 

Las soluciones adecuadas de política y gobernanza podrían ayudar a alinear el desarrollo de la inteligencia artificial con estos principios, así como alentar el diálogo interdisciplinario sobre cómo lograrlo. ¿Qué opinas al respecto sobre una regulación de estos desarrollos?

Ebook: Estado del Internet de las Cosas en México

Tags: #InteligenciaArtificial, #Empresas, #IA, #RegulaciónIA