Riesgos de los avances tecnológicos: robots que sustituyen a amigos y secretismo en la inteligencia artificial

Una ingeniera del MIT afirma que “un robot sociable ha de actuar como un humano, pero no parecer humano” porque “son una amenaza de sustitución”. Investigadores británicos y estadounidenses defienden que avances en inteligencia artificial sean secretos; ¿hasta qué punto?

Robótica e inteligencia artificial, grandes ventajas y algunos riesgos Robótica e inteligencia artificial, grandes ventajas y algunos riesgos

Los avances tecnológicos están dotando a la sociedad de un sinfín de ventajas y beneficios en cualquiera de las actividades del día a día de los ciudadanos. Al mismo tiempo, la robótica y la inteligencia artificial avanzan a un ritmo tan rápido que sin duda multiplicarán esos beneficios a medio y largo plazo en una futura sociedad del bienestar difícil de imaginar.

Sin embargo, ese futuro tecnológico no está exento de riesgos. Como advertía el Papa Francisco en octubre del año pasado, “el robot debe ser un medio y no convertirse en un ídolo de una economía en las manos de los poderosos; deberá servir a la persona y sus necesidades humanas”.

Dos ejemplos sirven para ilustrar esos riesgos. Por una parte, los últimos diseños en robótica suponen crear robots que podrían ser “una amenaza de sustitución” de los amigos, como advierte una ingeniera del MIT que, en ese sentido, considera que “un robot sociable ha de actuar como un humano, pero no parecer humano”.

Al mismo tiempo, los avances en inteligencia artificial (IA) han llevado a un grupo de investigadores británicos a considerar que algunos de esos avances deben ser secretos por considerar que delincuentes o terroristas podrían hacer un uso indebido de esa tecnología.

Pero, ¿hasta qué punto se puede llevar ese secretismo en las investigaciones sobre inteligencia artificial?

La ingeniera del MIT Cynthia Breazeal considiera que que “un robot sociable tiene que actuar como un humano, pero no parecer humano"

La ingeniera del MIT Cynthia Breazeal considiera que que “un robot sociable tiene que actuar como un humano, pero no parecer humano”

Robots que sustituyen a amigos

El pasado 28 de febrero, Cynthia Breazeal, que dirige el grupo de robots sociales del Media Lab del MIT, en una entrevista publicada por La Vanguardia en La Contra, explicaba los pormenores de sus últimos diseños de robots.

Una de las primeras cuestiones que planteaba es que “un robot sociable tiene que actuar como un humano, pero no parecer humano […] Si un robot parece demasiado humano, nos resulta odioso”.

¿El por qué? “Porque los rasgos humanos en un robot son una amenaza de sustitución. En cambio, nos encanta ver cómo otros seres de formas muy diferentes actúan como humanos. Nos gusta que nos imiten, no que nos sustituyan”, añadía.

El tipo de robot que diseña Breazeal actualmente “describe curvas, entona frases cálidas y se mueve con las espirales típicas en cualquier interacción personal. Es como el perro de casa: no es humano, pero nos resulta simpático, porque es todo lo contrario de una máquina al moverse: es un sistema complejo en evolución. ¿Y, al fin y al cabo, no somos eso nosotros también?”

Mis robots son emocionales y emocionantes, pero lo que les hace humanos es que se interesan. Como este, Jibo, es interesante porque se interesa por nosotros”.

Además, en contraste con los amigos, “mi robot irá aprendiendo de usted y con usted. […] Me temo que los robots sociables las irán sometiendo (a las amistades) a comparaciones difíciles […] en las que usted será protagonista. Y aprenderá a contar las historias que a usted le interesan al ir descubriendo qué aventuras le gustan”. Este robot “se emocionará con usted, y eso le hará emocionante”, insistía, en contraste con muchas de las propias amistades.

Y es precisamente el hecho de que un robot diseñado por Breazeal se interese por su dueño más que sus amigos lo que podría llegar a suponer un inconveniente. “Son tan agradables que teniéndolos en casa no sé si apetecerá ver a los amigos”, comentaba el entrevistador.

La cuestión de fondo en el debate que sugiere la creación de este tipo de robots es que, sin negarles algunas ventajas, ponen de manifiesto la creciente soledad que genera en los individuos la actual sociedad de la desvinculación: para qué tener un amigo si se tiene al lado un fiel robot.

Un “robot de compañía” viene a ser el equivalente al “mejor amigo del hombre”, el perro, pero sin sus inconvenientes. Y también puede sustituir las relaciones humanas que se establecen con un amigo con el que no siempre estaremos de acuerdo.

¿Habrá un control sobre aquellos que controlen la IA?

¿Habrá un control sobre aquellos que controlen la IA?

¿Quién controlará a quien controla los secretos?

Por otra parte, un grupo de 26 investigadores que pertenecen a las universidades de Oxford, Cambridge, Bath, Stanford, Lousville, el Center for a New American Security y OpenAI, entre otras instituciones, presentaron recientemente un manifiesto sobre el uso malicioso de la inteligencia artificial en el que planteaban que algunas de las investigaciones en este campo deberían mantenerse en secreto.

Tal como informaba el diario La Vanguardia el pasado 23 de febrero, para estos científicos el uso que de esos avances pudieran hacer ciertos gobiernos, o delincuentes, espías e incluso terroristas, justificaría su propuesta.

En el informe que presentaron, ‘El uso malicioso de la inteligencia artificial: previsión, prevención y mitigación’, planteaban algunas de las amenazas que se ciernen sobre la sociedad con el mal uso de la inteligencia artificial, como una posible epidemia mundial de un virus informático que obligara a millones de personas a pagar rescates económicos para poder recuperar la funcionalidad de sus dispositivos digitales.

Otro ejemplo era el de un robot de la limpieza empleado en el ministerio de finanzas alemán que, gracias al reconocimiento facial, identificara cuando está cerca el ministro para hacer estallar una bomba; o ataques de enjambres de drones controlados por una sola persona a través de la inteligencia artificial.

También hablaban de la facilidad con que puede manipularse el comportamiento de las personas a través de noticias falsas o engañar o lanzar ataques a personas, empresas o programas informáticos a través de bots que usan IA para simular el comportamiento de un vasto grupo de usuarios de internet.

Ante estos posibles riesgos, los autores del informe proponen que se exploren formas de restringir la información potencialmente peligrosa relacionada con esta tecnología, de la misma manera que hay controles y restricciones para quienes investigan y trabajan con otras tecnologías consideradas “de doble uso”, es decir, que potencialmente podrían ser usadas como armas.

En ese sentido, Ramón López de Mántaras, director del Instituto de Investigación en Inteligencia Artificial del CSIC, señala que “la novedad del informe publicado ahora es que insta a reflexionar sobre si, en ciertos aspectos muy concretos que pueden afectar a la seguridad de las personas, debería evitarse el publicar en acceso abierto y poner los códigos (los programas informáticos) a disposición de todo el mundo dado que eso puede ser aprovechado entonces por, por ejemplo, grupos terroristas”.

Sin embargo, aunque se hace evidente la necesidad de controlar la difusión de algunos avances en inteligencia artificial, para evitar todos esos riesgos, el secretismo en las investigaciones sobre IA conlleva a su vez otro riesgo: ¿quién controlará a quienes controlan esos secretos?

De hecho, los problemas que generan y pueden generar los avances en inteligencia artificial no hacen otra cosa que amplificar las carencias que hoy en día la sociedad tiene en relación a su comportamiento, en relación a la ética y la falta de virtudes en la sociedad actual.

Hazte socio

También te puede gustar

Deja un comentario

Su dirección de correo electrónico no se va a publicar. campos obligatorios *

Puedes utilizar estas etiquetas HTML y atributos: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>