Suena a ciencia ficción, incluso a magia: la capacidad de comunicarse, controlar una computadora o mover un miembro robótico mediante el poder del pensamiento.
Sin embargo, no sólo es posible, sino que ya está transformando las vidas de pacientes con discapacidades graves.
En 2024una audiencia en una conferencia de la ONU En Ginebra, me sorprendió descubrir que un joven portugués con “síndrome de enclaustramiento” (un trastorno neurológico que lo dejaba incapaz de mover cualquier parte de su cuerpo) podía “hablar” con ellos, utilizando una interfaz cerebro-computadora (BCI, por sus siglas en inglés) que traducía sus pensamientos en palabras, los expresaba con su voz y respondía a sus preguntas.
Este es un ejemplo sorprendente del creciente campo de la neurotecnología, que representa una gran esperanza para las personas que viven con discapacidades y trastornos mentales como la enfermedad de Parkinson, la epilepsia y la depresión resistente al tratamiento.
Privacidad mental: ¿una batalla perdida?
Pero si bien el uso de la neurotecnología en el sector médico está estrictamente regulado, existen preocupaciones sobre su uso en otras áreas.
Productos como cintas para la cabeza, relojes y auriculares que monitorean la frecuencia cardíaca, los patrones de sueño y otros indicadores de salud son cada vez más populares. Los datos que recopilan pueden proporcionar información profunda sobre nuestros pensamientos, reacciones y emociones privadas, mejorando así la calidad de vida.
Esto plantea cuestiones éticas y de derechos humanos, ya que actualmente los fabricantes son libres de venderlo o transmitirlo sin restricciones. Las personas corren el riesgo de ver invadida su privacidad mental más íntima, sus pensamientos expuestos, monetizados e incluso controlados.
«Se trata de libertad de pensamiento, acción y privacidad mental», dice Dafna Feinholz, directora interina de investigación, ética e inclusión de UNESCO.
Le preocupa que la batalla por la privacidad mental se esté perdiendo en la era de las redes sociales, donde los usuarios suben felizmente sus vidas privadas a plataformas propiedad de un puñado de empresas tecnológicas gigantes.
“La gente dice: ‘No tengo nada que ocultar’, pero no entienden lo que están revelando”, añade.
Las tecnologías de asistencia pueden permitir que una persona escriba o mueva objetos en el espacio utilizando sus ondas cerebrales.
«Ya estamos perfilados por la IA, pero ahora existe la posibilidad de introducir pensamientos, medir directamente la actividad cerebral e inferir estados mentales. Estas tecnologías podrían incluso cambiar la estructura de su sistema nervioso, permitiendo que sea manipulado. La gente necesita saber que estas herramientas son seguras y que, si quieren, pueden dejar de usarlas».
Las personas necesitan saber que estas herramientas son seguras y que, si lo desean, pueden dejar de usarlas.
El funcionario de la ONU insiste en que si bien debemos aceptar que tenemos que vivir con la tecnología, podemos garantizar que los humanos sigan a cargo.
«Cuanto más nos sometamos al poder y la superioridad de estas herramientas, más nos dominarán. Tenemos que controlar lo que hacen y lo que queremos que hagan, porque somos nosotros quienes las producimos. Es nuestra responsabilidad por toda la tecnología que creamos».
Es hora de adoptar un enfoque ético
La señora Feinholz habló con Noticias ONU desde la antigua ciudad uzbeka de Samarcanda donde, el miércoles, delegados de los estados miembros de la UNESCO –la agencia de las Naciones Unidas para la educación, la ciencia y la cultura– adoptaron oficialmente un “Recomendación» (orientación no vinculante sobre principios y mejores prácticas que pueden formar la base de las políticas nacionales) sobre la ética de la neurotecnología, con énfasis en la protección de la dignidad, los derechos y las libertades humanas.
Las directrices abogan por la promoción del bienestar y la prevención de los daños asociados con la tecnología, la libertad de pensamiento (garantizando que las personas mantengan el control de sus mentes y cuerpos) y el respeto de las normas éticas por parte de los desarrolladores, investigadores y usuarios y la responsabilidad por sus acciones.
Se recomienda a los Estados miembros que implementen varias medidas, incluida la implementación de marcos legales y éticos para monitorear el uso de neurotecnologías, proteger los datos personales y evaluar el impacto en los derechos humanos y la privacidad.
«Los humanos necesitan saberlo», dice Feinholz. «Es necesario que haya transparencia, compensación y compensación, como ocurre en otras industrias. Tomemos como ejemplo los restaurantes. Si comes fuera, no necesitas saber cocinar. Pero si pides espaguetis a la carbonara y te enferma, puedes quejarte con el propietario. Hay responsabilidad. Lo mismo debería aplicarse a la neurotecnología: incluso si no entiendes cómo funciona, tiene que haber una cadena de custodia».
Publicado anteriormente en Almouwatin.


