Fuente: Vision Times en español

Con la inquietante idea de conectar el mundo digital con el mundo físico y darle más «vida» y percepciones a las máquinas, investigadores de la Universidad de Edimburgo crearon la primera piel electrónica inteligente.

Esta suerte de «piel» les daría a los robots un sentido propio de movimiento, percepción del espacio y una respuesta a los estímulos externos similar a la de los seres vivos. Esta nueva tecnología lograda mediante sensores los haría ser conscientes y sentir su propio movimiento corporal, emulando a un sistema nervioso.

“Con los diferentes conjuntos de electrodos localizados en la superficie del robot podemos capturar la información de movimiento y deformación en diferentes posiciones”, explicó el doctor Yunjie Yang, uno de los autores de la investigación, a la agencia EFE.

“Tenemos microcanales formados por metales líquidos, que conducen la respuesta de los diferentes sensores electrodos a un procesador, el cual controla la recolección de señales procedentes de la piel electrónica”, añadió.

Ahí es donde “se codifica la información procedente de la piel electrónica y se extrae aquella útil y relacionada con el movimiento del cuerpo, que se transmitirá a un ordenador”, asegura Yang, que detalla que “mediante aprendizaje automático se obtiene la percepción 3D y los movimientos”.

“No hay tecnología hasta el momento que pueda proveer información en tiempo real de movimiento e información táctil”, aseguró el doctor investigador, por lo que la experiencia en Edimburgo los convierte en “pioneros”. 

Los peligros de la Inteligencia Artificial

Robots con inteligencia para responder preguntas y abrir o cerrar un debate ya existen y son cada vez más usados. Un ejemplo de IA cada vez más usado es el ChatGPT, del cual el mismo Bill Gates vaticinó que en 18 meses podría alfabetizar a los niños y que sería tan «buen profesor» como los humanos.

Pero no todos los magnates o científicos están de acuerdo en el avance exponencial de la inteligencia artificial.

Elon Musk y más de mil expertos firmaron recientemente un pedido para hacer una pausa de 6 meses en la investigación sobre inteligencia artificial más potentes que ChatGPT 4, el modelo de OpenAI, al advertir de «grandes riesgos para la humanidad».

La petición, publicada en futureoflife.org, pide una moratoria «hasta que se establezcan sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la dramática perturbación económica y política (especialmente para la democracia) que causará».

En una entrevista reciente con Tucker Carlson, Elon Musk expresó que es «absolutamente» posible que los sistemas de inteligencia artificial puedan tomar el control y tomar decisiones por las personas que podrían conducir a la «destrucción de la civilización».

La inteligencia artificial que «cobró vida»

A principios de junio del año pasado se reveló que Google despidió a un ingeniero que aseguraba que una de sus inteligencias artificiales había cobrado conciencia propia. Luego, trascendió otro detalle de la noticia volvió a sorprender, ya que aparentemente la misma IA -LaMDA- decidió contratar un abogado para defender su existencia y sus “derechos” ante la compañía.

Previamente, en un artículo de Medium, el ingeniero Blake Lemoine afirmó que el programa pedía “ser reconocido como empleado de Google en lugar de ser considerado una propiedad” de la compañía. 

“LaMDA me pidió que consiguiera un abogado”, dijo Lemoine a Wired en una entrevista. «Invité a un abogado a mi casa para que LaMDA pudiera hablar con él».

Lemoine se llamó a sí mismo un «catalizador» para que LaMDA solicitara un abogado y le dijo a la revista que no aconsejó a la IA que buscara uno.

Finalmente, después de una larga conversación, la propia IA decidió aceptar los servicios del abogado, lo que para el ingeniero cobra aún más pruebas al hecho de que la Inteligencia Artificial de Google cobró conciencia. 

A pesar de haber desestimado las afirmaciones de Lemoine, Google ha reconocido previamente sus preocupaciones de seguridad en torno a la antropomorfización. 

En un artículo sobre LaMDA en enero de 202, Google advirtió que las personas podrían compartir pensamientos personales con agentes de chat que se hacen pasar por humanos, incluso cuando los usuarios saben que no son humanos. El documento también reconoció que los adversarios podrían usar estos agentes para «sembrar información errónea» haciéndose pasar por «el estilo de conversación de individuos específicos».

Envía tu comentario

Subscribe
Notify of
guest
4 Comentarios
Más antiguos
Recientes
Inline Feedbacks
Ver todos los comentarios

Últimas