InicioDerechos HumanosMente sobre máquina: la ONU insta a establecer barreras éticas para la...

Mente sobre máquina: la ONU insta a establecer barreras éticas para la revolución de la tecnología cerebral

-


Parece ciencia ficción, o incluso magia: la capacidad de comunicarse, controlar una computadora o mover un miembro robótico mediante el poder del pensamiento.

Sin embargo, no sólo es posible, sino que ya está transformando las vidas de pacientes con discapacidades graves.

En 2024una audiencia en una conferencia de la ONU en Ginebra se quedó asombrado cuando un joven en Portugal con “síndrome de encierro” –un trastorno neurológico que lo dejaba incapaz de mover cualquier parte de su cuerpo– pudo “hablarles” usando una interfaz cerebro-computadora (BCI) que traducía sus pensamientos en palabras, hablaba con su voz, y respondía a sus preguntas.

Este es un ejemplo sorprendente del creciente campo de la neurotecnología, que ofrece grandes esperanzas para quienes viven con discapacidades y trastornos mentales como la enfermedad de Parkinson, la epilepsia y la depresión resistente al tratamiento.

Privacidad mental: ¿una batalla perdida?

Pero si bien el uso de la neurotecnología para el sector médico está estrictamente regulado, su uso en otras áreas genera preocupación.

Productos como cintas para la cabeza, relojes y audífonos que monitorean la frecuencia cardíaca, los patrones de sueño y otros indicadores de salud son cada vez más populares. Los datos que recopilan pueden proporcionar información profunda sobre nuestros pensamientos, reacciones y emociones privadas, mejorando la calidad de vida.

Esto plantea desafíos éticos y de derechos humanos, porque actualmente los fabricantes son libres de venderlo o transmitirlo sin restricciones. Las personas se enfrentan a la posibilidad de que se invada su privacidad mental más íntima, de que sus pensamientos queden expuestos, monetizados e incluso controlados.

«Se trata de libertad de pensamiento, agencia y privacidad mental», dice Dafna Feinholz, directora interina de Investigación, Ética e Inclusión de UNESCO.

Le preocupa que la batalla por la privacidad mental se esté perdiendo en la era de las redes sociales, en la que los usuarios suben voluntariamente sus vidas privadas a plataformas propiedad de un puñado de empresas tecnológicas gigantes.

“La gente dice ‘no tengo nada que ocultar’, pero no entienden lo que están revelando”, añade.

Las tecnologías de asistencia pueden permitir que una persona escriba o mueva objetos en el espacio utilizando sus ondas cerebrales.

«Ya estamos siendo perfilados por la IA, pero ahora existe la posibilidad de introducir pensamientos, medir directamente la actividad del cerebro e inferir estados mentales. Estas tecnologías podrían incluso modificar la estructura de su sistema nervioso, permitiendo ser manipulados. Las personas necesitan saber que estas herramientas son seguras y que, si lo desean, pueden dejar de usarlas».

Las personas necesitan saber que estas herramientas son seguras y que, si lo desean, pueden dejar de usarlas.

El funcionario de la ONU insiste en que, si bien tenemos que aceptar que necesitamos vivir con la tecnología, podemos garantizar que los humanos sigan a cargo.

«Cuanto más nos rindamos al poder y la superioridad de estas herramientas, más nos dominarán. Necesitamos controlar lo que hacen y lo que queremos que logren, porque somos nosotros quienes las producimos. Esta es nuestra responsabilidad por toda la tecnología que creamos».

Es hora de un enfoque ético

La señora Feinholz habló con Noticias ONU desde la antigua ciudad uzbeka de Samarcanda, donde, el miércoles, delegados de los Estados miembros de la UNESCO –la agencia de las Naciones Unidas para la educación, la ciencia y la cultura– adoptaron formalmente un “Recomendación”(orientación no vinculante sobre principios y mejores prácticas que pueden formar la base de las políticas nacionales) sobre la ética de la neurotecnología, con énfasis en la protección de la dignidad, los derechos y las libertades humanas.

La guía aboga por la promoción del bienestar y la evitación de los daños asociados con la tecnología, la libertad de pensamiento (garantizando que las personas mantengan el control sobre su mente y su cuerpo) y que los desarrolladores, investigadores y usuarios respeten estándares éticos y sean responsables de sus acciones.

Se recomienda a los Estados miembros que implementen varias medidas, incluida la implementación de marcos legales y éticos para monitorear el uso de la neurotecnología, proteger los datos personales y evaluar el impacto en los derechos humanos y la privacidad.

«El ser humano tiene que estar al tanto», afirma Feinholz. «Es necesario que haya transparencia, compensación y compensación, como ocurre en otros sectores. Tomemos como ejemplo los restaurantes. Si comes fuera de casa no tienes que saber cocinar. Pero si pides un espagueti a la carbonara y te enferma, puedes quejarte con el propietario. Hay responsabilidad. Lo mismo debería aplicarse a la neurotecnología: incluso si no entiendes cómo funciona, tiene que haber una cadena de responsabilidad».



Source link

- Publicidad -spot_img

Selección