¿Qué seguridad nos aporta la inteligencia artificial?

Google+ Pinterest LinkedIn Tumblr +

Si las películas de Hollywood son tu guía para saber más acerca de la Inteligencia Artificial, nos enfrentamos a un futuro aterrador en el que las máquinas se vuelven tan inteligentes que nos dominan o incluso nos destruyen.

inteligencia-artifcial

La inteligencia artificial es el futuro indudablemente pero ¿corremos riesgos de ser invadidos por nuestras propias maquinas?

Y figuras influyentes han añadido más leña al fuego: Stephen Hawking dice que la inteligencia artificial podría significar el fin de la raza humana, mientras que el empresario genio Elon Musk dice que es “como convocar al demonio”.

Así que, ¿Es la conquista de tecnologías nuevas y ordenadores inevitable? Con un tema tan aclimatado, vale la pena tratar de desentrañar lo plausible de lo que es demasiado inverosímil para preocuparse.

Para empezar, vivimos con la IA ya. Los cálculos detrás de tus búsquedas en Google o tu navegación en Amazon no sólo están marcando más, sino que el software está en constante aprendiendo cómo responder más rápida y eficazmente.

Esto es notable, pero se describe como una Inteligencia artificial “estrecha” o “débil” , ya que sólo puede funcionar dentro de las pautas que han sido dadas por sus inventores humanos, una limitación crucial.

Por el contrario una Inteligencia artificial, “general” o “fuerte”, que aún no existe, implica una capacidad más firme para hacer cosas que van más allá de las intenciones humanas originales, para no “pensar”, pero si improvisar.

Enormes obstáculos se interponen en el camino de llegar allí, ya sea mediante la imitación de cómo funciona el cerebro humano o la construcción de suficiente potencia de procesamiento de la nada, y mucho menos crear un robot con sus propias ideas y agendas.

Para una revisión de la realidad, visita el Jet Propulsion Laboratory de la NASA (JPL) en Pasadena, California, para ver los ingenieros que trabajan en algunos de los robots más capaces en el mundo, aunque claro esto solo esta al alcance de algunos pocos.

Se rieron de la idea de un ejército de robots – “No estoy preocupado por máquinas inteligentes”, dijo el líder del proyecto Brett Kennedy.

RoboSimian de su equipo es una versión inquietante de un mono mecánico que puede transformarse entre diferentes posturas para que pueda, ya sea de pie o gatear o rodar a lo largo sobre ruedas.

robosimian

Robosimian el robot mono mecánico que se transforma en diferentes posturas

Diseñado para aventurarse en zonas de desastre demasiado peligrosas para las personas que entran, como edificios derrumbados o reactores nucleares en ruinas, tiene dos ordenadores a bordo, uno para gobernar sus sensores, y el otro para manejar los movimientos. Capaz de llevar a cabo tareas como conducir un coche y apagar una válvula grande, llegó a un quinto puesto acreditable en el reciente Robotics Challenge del Pentágono.

Pero la inteligencia real de RoboSimian es rudimentaria. Lo vi instruido para abrir una puerta y lo vi avanzar en la dirección correcta y luego juzgar hasta qué punto su brazo necesita moverse para empujar el mango. Pero la máquina no necesita parámetros muy específicos.

“En el futuro previsible no me preocupa ni me esperaba ver a un robot tan inteligente como un ser humano ya que tengo conocimiento de primera mano de lo difícil que es para nosotros hacer una robot que hace mucho de nada”. Dijo el jefe del proyecto.

Para cualquier persona preocupada por la Inteligencia artificial, esto sería tranquilizador, y está respaldado por una de las figuras principales de Gran Bretaña en la Inteligencia artificial, el profesor Alan Winfield del Laboratorio de Robótica de Bristol.

“Él ha ofrecido consistentemente una voz de calma, que decía que “los temores de un futuro superinteligente de robots” que toman el mundo, son muy exageradas”.

Él admite que las innovaciones deben ser cuidadosamente manejadas, y él estaba entre 1.000 científicos e ingenieros que firmaron un llamamiento para una prohibición de la IA en armamento.

Prof Winfield dijo: “Los robots y sistemas inteligentes deben ser diseñados a un nivel muy alto de seguridad para exactamente las mismas razones que necesitamos nuestras lavadoras, automóviles y aviones para estar seguro.”

Pero la predicción del futuro ritmo de la tecnología es imposible, ya que no se está seguro acerca de si todos los investigadores en todas las partes del mundo tendrán un enfoque responsable, y ahí radica la amenaza.

El hito clave y más trascendental es la paridad hombre-máquina, se llama Inteligencia Artificial General, y los académicos están tratando de determinar cuándo podría llegar y lo que eso significaría.

Uno de ellos es el profesor Nick Bostrom del futuro de la humanidad Instituto de la Universidad de Oxford. Su reciente libro, superinteligencia, se ha convertido en uno de los textos definitivos que ponen muy claramente por qué tenemos que preocuparnos.

Cita recientes encuestas de expertos en el campo. Una sugiere que hay un 50% de probabilidades de que los ordenadores podrían llegar a la inteligencia de nivel humano tan pronto como 2050, sólo a 35 años de distancia.

Y mirando al futuro, el mismo estudio dice que hay una probabilidad del 90% de la paridad hombre-máquina por el 2.075.

El Prof Bostrom describe a sí mismo como un defensor de la IA, porque podría ayudar a luchar contra el cambio climático, la energía y las nuevas medicinas, pero dice que puede tener implicaciones que no se entienden correctamente. Está recibiendo financiamiento de Elon Musk para explorar estas cuestiones, y el objetivo es desarrollar un enfoque común de la seguridad. En última instancia, hay riesgos, sin duda.

Share.

About Author

CEO/Fundador de Tecnología Express | Amante de las nuevas tecnologías, los móviles y la informática. Hablo de lo mas nuevo y lo mas viejo. Ver todas las entradas por Victor Martín

Leave A Reply

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información. ACEPTAR

Aviso de cookies