Pasar al contenido principal

Se encuentra usted aquí

Noticias

¿Se puede regular la inteligencia artificial?

15/09/2016 12:49
Read in

Los gigantes tecnológicos estadounidenses se unen para cuidar la ética ante los avances de la IA.

0
Votar
0 Comentarios

El auge de los robots ha puesto encima de la mesa el temor de las personas a perder sus puesto de trabajo. También que se pregunten si las máquinas van a ser incontrolables y van a ir en contra de los humanos.  Un miedo que ha llevado, como recoge el diario The New York Times, a que cinco gigantes tecnológicos quieran crear un estándar de ética la inteligencia artificial (IA). Los investigadores de la matriz de Google, Alphabet, y los de Amazon, Facebook, IBM y Microsoft se han reunido para discutir las cuestiones más tangibles, tales como el impacto de la IA en el empleo, el transporte e incluso la guerra.

Las compañías tecnológicas han hecho durante mucho tiempo promesas exageradas de lo que podrían hacer las máquinas de inteligencia artificial. El cine reforzada estos sueños. Aunque ya no es ciencia ficción. En los últimos años, el campo de la IA ha ido evolucionando rápidamente en muchas áreas, desde los automóviles y máquinas de auto-conducción que reaccionan al habla humana, como el dispositivo Eco de Amazon, hasta una nueva fabricación de armas que amenazan con automatizar el combate.

En julio de 2015 un millar de expertos, entre los que se encontraban el físico Stephen Hawking, el cofundador de Apple Steve Wozniak, Elon Musk, fundador de Tesla y cocreador de PayPal, el lingüista Noam Chomsky  o Demis Hassabis, jefe ejecutivo de la compañía de inteligencia artificial de Google firmaban un manifiesto  en el que alertaban de los peligros de la inteligencia artificial y pedían su regulación.

Proyecto Standford

Un año después-  aunque los detalles de lo que la industria va a hacer o decir  aún está por concretar- parece claro que las grandes compañías tecnológicas buscan garantizar que la investigación en IA se centre en beneficiar a las personas, no en hacerles daño. 

La importancia del esfuerzo de la industria ha derivado en un informe publicado por un grupo de expertos de la Universidad de Stanford liderado por Eric Horvitz, investigador de Microsoft. El proyecto de Stanford Estudio de cien años de Inteligencia Artificial, traza un plan para redactar cada cinco años, durante el próximo siglo, un informe detallado sobre el impacto de la IA en la sociedad.

No estamos diciendo que no debe haber ninguna regulación”, ha señalado Peter Stone, experto informático de la Universidad de Texas, en Austin, y uno de los autores del informe de Stanford. “Estamos diciendo que hay una manera correcta y una manera incorrecta de actuar”.

Como destaca el diario estadounidense, no es la primera vez que los gigantes tecnológicos, habitualmente protagonistas de una competencia feroz, se ponen de acuerdo en algo: en la década los 90, por ejemplo, las empresas tecnológicas crearon un método estándar para la encriptación de las transacciones de comercio electrónico, sentando las bases para dos décadas de crecimiento en los negocios de Internet.

Los autores del informe de Stanford Inteligencia Artificial y la vida en 2030, argumentan que será imposible regular la IA. “El consenso del estudio coincide en que los intentos para regular la IA en general serían erróneos, ya que no existe una definición clara de lo que es la IA (no es una sola cosa), y los riesgos y consideraciones a tener en cuenta son muy diferentes en los diferentes dominios”, señala el informe.

Aumentar la sensibilización

Una de las recomendaciones del informe es aumentar la sensibilización y la experiencia en IA en todos los niveles de gobierno, explica Stone en el periódico norteamericano. También se pide un aumento del gasto público y privado en IA.

“El Gobierno tiene su papel del gobierno y nosotros lo respetamos”, recalca David Kenny, director general de la división Watson de inteligencia artificial de IBM. “El reto es que muchas veces la política retrasa la tecnología”.

Se ha distribuido un memorando entre las cinco empresas para intentar anunciar la creación de la nueva organización a mediados de septiembre. Uno de los problemas no resueltos es que Google DeepMind, una filial de Alphabet, no quiere participar.

Por otra parte, Reid Hoffman, fundador de LinkedIn con experiencia en inteligencia artificial, está en conversaciones con el Laboratorio de Medios del Instituto Tecnológico de Massachusetts ( MIT) para financiar un proyecto de exploración de los efectos sociales y económicos de la inteligencia artificial. Tanto la iniciativa del MIT como la asociación de la industria están tratando de vincular más estrechamente los avances tecnológicos con cuestiones políticas, sociales y económicas. El grupo del MIT ha estado discutiendo la idea de diseñar nuevos IA y sistemas robóticos con “la sociedad dentro del círculo”.

La frase es una referencia al largo debate sobre el diseño de sistemas informáticos y robóticos que aún requieren de la interacción con los seres humanos. Por ejemplo, el Pentágono ha comenzado recientemente una estrategia militar que exige el uso de IA, pero en la que los seres humanos siguen controlando las decisiones a la hora de decidir matar a alguien, en lugar de delegar esa responsabilidad en las máquinas.

“La clave que me gustaría señalar es que los científicos informáticos no son buenos a la hora de interactuar con los científicos sociales y los filósofos”, señala Joichi Ito, director del Laboratorio de Medios del MIT y miembro de la junta directiva de The New York Times. El futuro dirá si la ética se impone a la inteligencia artificial.

Lee el informe Standford aquí

Fuente: The New York Times

Más información: Ebook: Robots

Noticias relacionadas:

Inbenta: la inteligencia artificial al servicio de los clientes bancarios

“La inteligencia artificial no está a la vuelta de la esquina”