portada

Estudiosos de Cambridge evalúan el peligro de la Inteligencia Artificial

avatar
Guillermo Basavilvazo Miércoles, 28 de Noviembre de 2012, 12:00 AM

Un grupo de científicos y ingenieros de la Universidad de Cambridge decidieron fundar el Centro de Estudios de Riesgo Existencial (CERE) para analizar las diferentes amenazas que podrían terminar la existencia de la humanidad como la raza dominante del planeta. Uno de los riesgos más probables según esta nueva escuela organización, es la creación de una inteligencia artificial con la capacidad de destronarnos de nuestro liderazgo evolutivo. ¿Cuánto falta para el fin del mundo’

Actualmente existen inteligencias artificiales que pueden armar una máquina con sólo leer el manual de instrucciones o jugar videojuegos con un 70% de victorias de manera totalmente autónoma. Hoy es un momento en que las máquinas aún no se convierten en amenazas y sólo son objetos serviles que podrían ayudarnos a realizar las tareas cotidianas más sencillas; sin embargo, el CERE considera el hecho de que, en un futuro eventual, la humanidad pueda crear una IA tan avanzada que esta acabe por destruirnos.

El CERE toma en cuenta un término acuñado en 1965 por el matemático Irving Jack cuando definió a las inteligencias artificiales capaces de crear dispositivos de manera autónoma y, además, mejorar su propia capacidad de aprendizaje como AGI (Artificial General Intelligence). Las AGI, con su potencial infinito de memoria y adaptación, se convertirían en una fuerza que se volvería la raza dominante en el planeta, eliminando a la humanidad en el proceso.

No obstante, según Huw Price, uno de los fundadores del CERE, la amenaza no vendría en forma de un conflicto bélico, si no en un largo proceso de adaptación de las máquinas en el que estas cambiarían el ambiente para su conveniencia justo como nosotros lo hemos hecho en miles de años de evolución; destruyendo y deformando los hábitats y formas de subsistencia de cientos de especies en el camino. El karma se encargaría de eliminarnos.

Nacido en la Universidad de Cambridge, el CERE también considera otro tipo de amenazas para la humanidad como el nacimiento de la nano-tecnología, el cambio climático y otras razones sociológicas que podrían desaparecernos del mapa. Es muy cierto que la amenaza tipo Matrix de humanos contra máquinas parece muy distante desde este momento; no obstante, la ciencia ha avanzado mucho en su carrera por crear máquinas más capaces, más inteligentes y más adaptables. Es probable que nos encontremos más cerca de nuestra extinción de lo que creemos.

Referencias: Gizmag, Cambridge.

Reacciones 0

Más noticias

También te puede interesar

postPINC, la realidad virtual llega al iPhone 6 post¿Quién es Frank Borland y qué tiene que ver con Delphi? postTransfiere tu información entre versiones de Dragon Age postAquí está el primer tráiler de Jurassic World postEl nuevo concepto de MINI es un scooter post¿Quién es la “Barbie Hacker Feminista”?

Comentarios

  • http://www.facebook.com/laura.corteschavez Laura Cortés Chávez

    Sería como decir que la licuadora y mi PC ya están confabulando mi destrucción…Por Dios!!!

  • xirtam

    downloading!

  • http://twitter.com/drak001 Drako01

    Por un momento pensé que estaban hablando de Skynet, ya estaba buscando a John Connor en Google!!! :P

  • tonnyboy

    Sera peligroso cuando se logre por fin tener todo tipo de accesorio interconectado a una red central, y cuando se logre dar autonomía de juicio a todo dispositivo “inteligente”.

    Recuerdo una película en la que un robot con armamento desarma a un agente, el agente tira el arma, y el robot al no escuchar o no entender que el agente se había desarmado, lo mata, como ven, los robots y todo dispositivo son incompletos e inútiles por si solos, el peligro hoy en día esta en quien los controla.

  • http://www.facebook.com/profile.php?id=100001904543635 Leo Mella

    Y así empieza Skynet… o V.I.C.K.Y