Robótica

37 proyectos para mitigar los riesgos que podrían suponer las máquinas superinteligentes


Aunque no temas la llegada inminente de máquinas superinteligentes, existen motivos para apoyar nueva financiación destinada a investigar el tema, ya que podría hacer más práctica la inteligencia artificial (IA) a corto plazo.

Avances recientes en la informática, sobre todo en el aprendizaje artificial, han coincidido con algunas especulaciones sorprendentemente directas acerca de a dónde nos lleva la IA. El año pasado, el empresario multimillonario Elon Musk advertía públicamente del riesgo que corren las investigaciones de «evocar al diablo» y de que podría suponer «la mayor amenaza existencial» para la humanidad. Otros líderes prominentes, incluidos Bill Gates y Stephen Hawking, también se han mostrados preocupados por los riegos que supone el desarrollo de máquinas verdaderamente inteligentes.

La organización estadounidense Future of Life Institute, con sede en Cambridge (EEUU), para mitigar los posibles riesgos existenciales de la IA, anunció la semana pasada que destinará siete millones de dólares (unos 6,3 millones de euros) en subvenciones para proyectos enfocados a «mantener la inteligencia artificial robusta y beneficiosa». La subvención ha sido financiada en gran parte por Musk, que donó 10 millones de dólares (unos 9 millones de euros) al instituto.

Quizás no tenga sentido contemplar tales resultados indeseables, pero aún nos falta mucho para llegar a crear algo que se pueda considerar realmente inteligente. Mientras que algunos de los 37 proyectos que recibirán subvenciones de Future of Life Institute exploran escenarios bastante fantásticos de IA extremadamente potentes, otros afrontan medidas para hacer el software más fiable, responsable y útil en contextos más complejos o ambiguos.

Por ejemplo:

* Fuxin Li, un investigador científico del Instituto Tecnológico de Georgia (EEUU), estudiaría métodos para comprender y predecir los errores en sistemas de aprendizaje profundo. Supone un esfuerzo muy valorable. Mientras que estas redes neuronales avanzadas han producido resultados espectaculares en los últimos años en campos como el reconocimiento de voz e imágenes, pueden fallar de maneras sorprendentes.

* Stefano Ermon, un profesor adjunto de la Universidad de Stanford (EEUU), investigará maneras de conseguir que los agentes autónomos se comporten de forma racional en situaciones complejas. Algún día, esto podría, por ejemplo, ayudar a que un coche autónomo evalúe los riesgos planteados por distintas acciones dentro de una situación compleja, facilitando que al final actúe de una manera que consideraríamos más responsable y aceptable a nivel ético.

* Seth Herd, un investigador de la Universidad de Colorado (EEUU), intentará aplicar las investigaciones neurocientíficas sobre el proceso de toma de decisiones en humanos a los esfuerzos de construir hardware informático con los llamados sistemas neuromórficos, inspirados en el cerebro humano. Esto podría aportar nuevos conocimientos acerca del diseño de estos sistemas y dirigirnos hacia nuevas aplicaciones.

* Manuela Veloso, una profesora de la Universidad Carnegie Mellon (EEUU), liderará los esfuerzos por desarrollar nuevos métodos para que las máquinas expliquen su comportamiento a los humanos. Puede resultar difícil, incluso para los expertos, entender por qué una máquina se comporta de determinada manera. Mejorar esta situación podría resultar especialmente importante al empezar los robots a trabajar con los humanos de forma más estrecha.

Irónicamente, estos proyectos también demuestran lo lejos que estamos de construir algo que fuese plausible que conquistara el mundo. Y mientras quizás tenga sentido considerar riesgos futuros ahora mientras aún disponemos de tiempo, esperemos que nuestra ansiedad acerca de escenarios futuristas no suponga un riesgo para el proceso tecnológico significante.

 

[vc_row][vc_column width=»1/1″][vc_column_text]

Fuente: Technology Review

[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column width=»1/1″][vc_row_inner][vc_column_inner width=»1/2″][vc_raw_html]JTNDc2NyaXB0JTIwdHlwZSUzRCUyMnRleHQlMkZqYXZhc2NyaXB0JTIyJTNFJTNDJTIxLS0lMEFnb29nbGVfYWRfY2xpZW50JTIwJTNEJTIwJTIyY2EtcHViLTUxNjM0NDI4NjUwODk5NjYlMjIlM0IlMEElMkYlMkElMjAzMDB4MjUwJTJDJTIwY3JlYWRvJTIwMjIlMkYxMCUyRjEwJTIwJTJBJTJGJTBBZ29vZ2xlX2FkX3Nsb3QlMjAlM0QlMjAlMjI2MDUwNjA5NDEwJTIyJTNCJTBBZ29vZ2xlX2FkX3dpZHRoJTIwJTNEJTIwMzAwJTNCJTBBZ29vZ2xlX2FkX2hlaWdodCUyMCUzRCUyMDI1MCUzQiUwQSUyRiUyRi0tJTNFJTBBJTNDJTJGc2NyaXB0JTNFJTBBJTNDc2NyaXB0JTIwdHlwZSUzRCUyMnRleHQlMkZqYXZhc2NyaXB0JTIyJTBBc3JjJTNEJTIyaHR0cCUzQSUyRiUyRnBhZ2VhZDIuZ29vZ2xlc3luZGljYXRpb24uY29tJTJGcGFnZWFkJTJGc2hvd19hZHMuanMlMjIlM0UlMEElM0MlMkZzY3JpcHQlM0U=[/vc_raw_html][/vc_column_inner][vc_column_inner width=»1/2″][vc_raw_html]JTNDaWZyYW1lJTIwYWxsb3d0cmFuc3BhcmVuY3klM0QlMjJ0cnVlJTIyJTIwc3JjJTNEJTIyaHR0cCUzQSUyRiUyRnd3dy5jb2RpZ29iYXJyYXMuY29tJTJGc2hhcmUtaHQlMkZqZWRpcyUyRmFkX3RwbC5waHAlM0ZpYyUzRDI4MCUyNmFtcCUzQnIlM0QxNjA2NCUyMiUyMHdpZHRoJTNEJTIyMzAwJTIyJTIwaGVpZ2h0JTNEJTIyMjUwJTIyJTIwZnJhbWVib3JkZXIlM0QlMjIwJTIyJTIwbWFyZ2lud2lkdGglM0QlMjIwJTIyJTIwbWFyZ2luaGVpZ2h0JTNEJTIyMCUyMiUyMHNjcm9sbGluZyUzRCUyMm5vJTIyJTIwYWxpZ24lM0QlMjJtaWRkbGUlMjIlM0UlM0MlMkZpZnJhbWUlM0UlMjA=[/vc_raw_html][/vc_column_inner][/vc_row_inner][/vc_column][/vc_row]


Leave a Comment

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.