Saltar al contenido

Investigadores de Cambridge evaluan riesgo de la IA

2012-11-26
Comparte esto:
Like
Like Love Haha Wow Sad Angry
Investigadores de Cambridge evaluan riesgo de la IA
Califica este artículo 😉

Muchos temen el progreso de la IA, la Universidad de Cambrigde busca la verdad.

Recuerda al Furby? Imagínese que se cultiva un caso de asesinato (literalmente) en la IA y decide que su casa y su familia son mucho mejor que la propia, y decide matarlo por ello.


Los investigadores creen que este escenario sompreocupaciones salvajemente exageradas. Sin embargo, la Universidad de Cambridge del Reino Unido está creando un nuevo centro para analizar los peligros planteados por la IA y el aumento de cada vez más máquinas interactivas no humanas.

Fundada por el distinguido profesor Precio Huw de filosofía, el profesor Martin Reess de cosmología y astrofísica y el co-fundador de Skype Jaan Tallinn, el proyecto tendrá como objetivo separar los hechos de la ciencia ficción para determinar si la tecnología super inteligente, impulsada por la IA, podría ser una amenaza para la humanidad, informa la agencia Associated Press (a través de NBC News).

El estudio prospectivo del Proyecto de Cambridge para Riesgo existencial ha establecido un amplio campo de estudio por sí mismo, que va desde aparatos que salieron mal por el calentamiento global. “Muchos científicos están preocupados de que la evolución de la tecnología humana pronto pueda plantear nuevos riesgos a nivel de la extinción de nuestra especie en su conjunto. Tales peligros se han sugerido por el progreso en la IA, de la evolución de la biotecnología y la vida artificial, la nanotecnología y de los posibles efectos extremos del cambio climático antropogénic”, dijeron los fundadores en el sitio web del proyecto a principios de este año.

“La gravedad de estos riesgos son difíciles de evaluar, pero que en sí mismo parecen un motivo de preocupación, dado lo mucho que está en juego”, añade el comunicado conjunto.

En declaraciones a la AP, Price cuestionó lo que sucede cuando “ya no somos los más inteligentes de sobre las cosas”, y advirtió que podríamos estar en riesgo de “máquinas que no sean malintencionadas, pero si máquinas en cuyos intereses no nos incluyan”.

A partir de “2001: Una odisea del espacio” a la “Terminator” trilogía, muchas películas han considerado el caos que podría desatarse por un robot asesino. Y mientras que muchos, sin duda, se mofan de la idea de un robot malvado suelto en estas décadas, Price insiste en que los riesgos potenciales inherentes al desarrollo de la IA no debe descartarse tan fácilmente.

“Tiende a considerarse como una preocupación, pero dado que no sabemos la gravedad de los riesgos, que no sabemos la escala de tiempo, descartar las preocupaciones es peligroso. Lo que estamos tratando de hacer es impulsar a la comunidad científica respetable”, dijo.

Uno de los ejemplos dados fue cuando un ordenador alnce un cierto nivel de conciencia de sí mismo y ponga sus propias metas egoístas por delante de sus creadores humanos o “amos”. Al igual que los seres humanos han evolucionado y tomado lugar suavemente sobre el planeta – desde la tala de grandes franjas de bosque y causando la extinción de decenas de especies que viven solo en nuestra memoria – Price advierte que la inteligencia computacional podría imitar la evolución humana a través de los años a una ritmo acelerado.

Considerar, también, que Human Rights Watch y la clinica de Drechos Humanos Internacionales de la escuela de leyes de Harvad han pedido el fin del “desarrollo, la producción y el uso de armas totalmente autónomas”, tales como las que se encuentran en Corea del Sur para proteger la zona de distensión.

Si bien estas armas automáticas están lejos de jactarse de tener IA, existe la preocupación de que estos “robots asesinos” controlados por algoritmos podrían llegar a sobrepasar sus límites.

La central de riesgos de la Universidad de Cambridge tiene previsto su lanzamiento el próximo año.

“Seguramente paso o tu mente si sería posible que la IA de los robots haga que se revelen”.

Fuente: http://news.cnet.com/8301-11386_3-57553993-76/killer-robots-cambridge-brains-to-assess-ai-risk/