Activa las notificaciones para estar al tanto de lo más nuevo en tecnología.

Hawking: La Inteligencia Artificial podría ser el peor de nuestros errores

El físico más importante de nuestros tiempos ha afirmado que la Inteligencia Artificial podría ser el peor de nuestros errores y ha advertido sobre los...

hawkings-ia00

El físico más importante de nuestros tiempos ha afirmado que la Inteligencia Artificial podría ser el peor de nuestros errores y ha advertido sobre los riesgos de que las máquinas tengan superinteligencia, indicando que esto podría ser lo más significativo que pudiese pasar a la humanidad y posiblemente, lo último.

La superinteligencia artificial representa una amenaza potencial de existencia para la humanidad, por lo que sería bueno si un científico de tal renombre nos explicara qué lo motiva a sus reflexiones para entender la problemática. Hawking, junto con los científicos de computadoras Stuart Russell y los físicos Max Tegmark y Frank Wilczek, dicen que los beneficios potenciales podrían ser gigantescos, pero que no podemos predecir lo que podría ocurrir cuando la IA sea magnificada, tanto para lo bueno como para lo malo.

En el periódico The Independent, los cientificos advirtieron: ‘Viendo hacia adelante, no hay límites fundamentales sobre lo que puede lograrse: no hay una ley física que impida que las partículas se organicen de tal manera que desempeñen cálculos cada vez más avanzados y que se organicen mejor que las partículas en el cerebro humano. Una transición explosiva es posible, aunque podría jugar de forma diferente a lo que hemos visto en las películas: como puso Irving Good en 1965, las máquinas con superinteligencia humana podrían mejorar repetidamente sus diseños incluso llegando a lo que Vernor Vinge llamó “una singularidad” o el personaje en la película de Johnny Depp llamó como “trascendencia”.’

Uno puede imaginar dicha tecnología superando los mercados financieros o dejando atrás la invención e investigación humana, o siendo mejor que cualquiera de los líderes humanos, y el desarrollo de armas simplemente no lo entenderíamos. Y aunque el impacto a corto plazo de la IA depende de lo que controle, en el largo plazo depende de si podemos controlarlo totalmente.

Así que viendo posibles futuros de beneficios incalculables (así como riesgos), los expertos estarían buscando el mejor resultado final, ¿verdad? Pues no necesariamente. Si una civilización alienígena nos mandara un mensaje diciendo: “llegaremos en dos décadas”, ¿les diríamos: “Ok, llámenos cuando lleguen, les dejaremos prendidas las luces”? Probablemente no, pero esto es más o menos lo que está pasando con la IA.

Aunque estamos enfrentando lo mejor o lo peor que le puede pasar a la humanidad en su historia, algunos investigadores, como de los institutos sin fines de lucro como el Cambridge Centre for the Study of Existential Risk, the Future of Humanity Institute, the Machine Intelligence Research Institute, y the Future Life Institute, piensan que debemos saber qué debemos hacer para mejorar las posibilidades de ampliar los beneficios y minimizar los riesgos.

Y a pesar de que Hawking y otros lo digan, da la impresión que pensar que en 20 años la IA tendrá sistemas verdaderamente inteligentes, es un poco ingenuo. De hecho, mi propia opinión en este tema me hace pensar que no hay un sólido fundamento de estos científicos en este tema.

Referencias:

iO9 

Comentarios