En "Terminator", las máquinas deciden exterminar a la humanidad.
En la película "Terminator", la computadora Skynet toma conciencia y concluye que la mayor amenaza para la humanidad que protege es la misma humanidad, por lo que programa su exterminio y desata una guerra entre seres humanos y robot-androides asesinos.
Pese a ser este un escenario de pura fantasía, la amenaza robótica ha pasado de ser un recurso común de la ciencia ficción a un tema que se toman muy en serio organismos internacionales, gobiernos y prestigiosas universidades.
Los últimos en lanzar la voz de alarma han sido dos profesores de la Universidad de Cambridge, que junto con el cofundador de Skype, Jaan Tallinn, anunciaron esta semana la creación de un Centro para el Estudio de Riesgos Existenciales (CSER), el cual -entre otros temas- analizará cuán plausible es la idea de que un día las máquinas inteligentes se vuelvan en nuestra contra.
Riesgo subestimado
Según los científicos, subestimar los riesgos que entrañan los robots inteligentes sería "peligroso", teniendo en cuenta lo rápido que avanza el campo de la Inteligencia Artificial.
La inteligencia artificial podría empezar a superar a la humana en 2050.
Anders Sandberg y Nick Bostrom, filósofos de la Universidad de Oxford, estiman en su trabajo "Emular un cerebro completo: un mapa de ruta" que a mediados de este siglo ya seremos capaces de reproducir un cerebro humano en silicio.
Los propulsores del CSER aseguran que, llegados a ese punto, estas máquinas podrían empezar a programar computadoras por su cuenta, lo que daría lugar a una "explosión de la inteligencia".
En poco tiempo, los seres humanos quedaríamos muy por detrás de los robots, estos escaparían a nuestro control y la humanidad quedaría a merced de máquinas superiores.
Este control no sería violento, ya que las máquinas carecerían de emociones como la ira. Pero si nos cruzáramos en su camino, seríamos para ellos como esos insectos que chocan contra el parabrisas de nuestro auto.
Robots asesinos
No todos los científicos comparten la creencia de que un día seremos capaces de diseñar un cerebro electrónico similar al humano, ni que esta tecnología termine suponiendo un peligro para la civilización.
Hay quienes temen que la amenaza en realidad provenga de gobiernos y ejércitos más que de las máquinas en sí.
Este mes, la organización Human Rights Watch hizo un llamado a todos los gobiernos del mundo para que detengan el desarrollo de los llamados "robots asesinos", autómatas que sustituirían al hombre en los conflictos bélicos.
Otras teorías plantean que la revolución la lideran los cyborgs, mitad hombre mitad máquina.
La ONG presentó un documento de 50 páginas en el que expertos como el profesor de inteligencia artificial Noel Sharkey, de la Universidad de Scheffield, en Reino Unido, les piden a países como Estados Unidos, China, Corea y Rusia que paralicen el desarrollo de armas que funcionen de forma totalmente autónoma.
Según detallan en el informe, aunque estos armas totalmente autónomas todavía no existen, la tecnología se mueve rápidamente en esa dirección.
"Estos robots armados pueden ser una realidad en décadas, y los militares están invirtiendo cada vez más en su desarrollo".
Una tecnología semejante, dicen, pondría en peligro la vida de miles de civiles durante conflictos armados, al no tener estas máquinas emociones que les permitan tomar decisiones de vida o muerte, antes en manos de soldados humanos.
Sólo un montón de metal
Afortunadamente, todavía quedan científicos que le quitan leña al asunto y dudan de que un alzamiento de robots inteligentes sea posible.
Es el caso del Dr. Kerstin Dautenhahn, profesor de Inteligencia Artificial de la Universidad de Hertfordshire, en Reino Unido, quien afirma que no hay nada que temerles a los robots.
"Son un montón de metal (...) No tienen agenda, esa es la diferencia con las películas", le dijo Dautenhahn a la BBC.
"No deberían temerles a los robots. Si tienen miedo, le tienen miedo a la gente que los construye".
0 comentarios:
Publicar un comentario