¿Estamos preparados para la llegada del ‘neurocapitalismo’?

 En: OpenMind. BBVA. Bruno Martin. 24 marzo de 2020

interfaz cerebral

Prototipo de la interfaz cerebral empleada por Facebook para ‘leer’ palabras pensadas. Crédito: Facebook Reality Labs

En las últimas décadas, la neurotecnología ha evolucionado desde una técnica rudimentaria para fotografiar el cerebro hasta una disciplina madura dedicada a observar e influir en las funciones de la mente. Ahora el campo de investigación se está adentrando en una fase nueva y desconocida, donde la posibilidad de leer pensamientos y de comunicarse por telepatía podría hacerse realidad. Pero también ahora, cuando gigantes digitales como Facebook se han unido a la carrera para crear dispositivos conectados al cerebro, los expertos advierten que es necesario templar el optimismo tecnológico y poner sobre la mesa los dilemas éticos: la principal cuestión ya no es qué es posible, sino qué es deseable.

La empresa estadounidense Neuralink, fundada por el millonario Elon Musk y apoyada económicamente por Microsoft, tiene el plan ambicioso de conectar mentes humanas a internet mediante filamentos implantados en la superficie del cerebro. Su objetivo inicial es distribuir esta interfaz cerebro-máquina con fines terapéuticos —por ejemplo, para que personas amputadas puedan controlar prótesis biónicas—, pero la meta a largo plazo es aprovechar esta tecnología para lograr “simbiosis con la inteligencia artificial” y así, según Musk, mejorar las capacidades humanas.

Las primeras pruebas de Neuralink con sujetos humanos están previstas para mediados de 2020, y el proyecto transhumanista tardará muchos años más en despegar, si es que lo hace. Sin embargo, ya es el momento de preguntarse qué efectos no deseados pueden tener las intervenciones que planea la empresa sobre el cerebro de los usuarios: ¿Podrían ser susceptibles al hackeo mental? ¿O a la filtración de datos neuronales? ¿Y al cambio de personalidad? Todas estas son preocupaciones reales en la nueva etapa tecnológica que ha sido apodada “neurocapitalismo” por el bioeticista Marcello Ienca, de la Escuela Politécnica Federal de Zúrich (Suiza).

Facebook, por su parte, anunció en 2017 la intención de desarrollar un sensor de ondas cerebrales que permitiría escribir usando solo los pensamientos, a una velocidad de 100 palabras por minuto (más lento que teclear al ordenador, pero más rápido que hacerlo con la pantalla de un móvil). En última instancia, la empresa de Mark Zuckerberg quiere desarrollar una diadema de electroencefalografía no invasiva que permita a los usuarios controlar aplicaciones de música, o interactuar con sistemas de realidad virtual.

EL FUTURO DE LAS MÁQUINAS CEREBRALES

 

Algunos analistas opinan que las expectativas de los inversores para el futuro de la neurotecnología son exageradas, ya que todavía no existe el conocimiento neurocientífico ni la tecnología no invasiva necesarios para lograr los objetivos propuestos a corto plazo. Sin embargo, tampoco se trata de ciencia ficción: los avances de los últimos años, por ejemplo en neuromárketing o en neurogaming, demuestran la rápida y sorprendente evolución de este campo, que además se verá acelerada por las inversiones millonarias de estas empresas.

En 2019, Facebook ya anunció sus primeros resultados en colaboración con la Universidad de California, en San Francisco: el desarrollo de “decodificadores de voz” que permiten descifrar comunicaciones sencillas mediante el análisis de impulsos nerviosos bajo el cráneo. En el estudio participaron personas con epilepsia que se preparaban para cirugía invasiva del cerebro; el equipo de investigación demostró que, con un implante, se puede leer su mente para distinguir una respuesta de varias posibles —por ejemplo, “violín”— a la pregunta “¿Qué instrumento musical prefieres escuchar?”.

Los resultados son prometedores desde el punto de vista científico y tecnológico, pero alarmantes desde el punto de vista social. Tan solo unas semanas antes de la publicación de ese estudio, la Comisión Federal de Comercio (FTC) de Estados Unidos impuso una multa de cinco mil millones de dólares a Facebook, por permitir a la consultora Cambridge Analytica crear perfiles políticos de los usuarios de la red social sin su consentimiento.

¿Qué garantías de privacidad o seguridad tendrán los consumidores que permitan el acceso de estas empresas a su cerebro? Por ahora, ningunas; ese es el problema del que advierten expertos como Nita Farahany, profesora de neuroética en la Universidad de Duke (EE UU). “Para mi el cerebro es el sitio seguro de los pensamientos, de las fantasías y de la disconformidad”, dijo Farahany en declaraciones para MIT Technology Review. “Nos estamos acercando a cruzar la última frontera de la privacidad sin protecciones de ningún tipo”.

LA DECLARACIÓN DE LOS “NEURODERECHOS”

 

En este aspecto coinciden activistas como Marcello Ienca o como Rafael Yuste, neurocientífico en la Universidad de Columbia (EE UU): el debate ético y político se está quedando a la zaga del desarrollo tecnológico. Ellos inciden en la necesidad de anticiparse a los posibles riesgos y de redactar con urgencia legislación específica. En su opinión, las medidas que se tomen deberían consagrar una serie de neuroderechos para salvaguardar a los usuarios y para garantizar un desarrollo beneficioso de la tecnología cerebral.

En un artículo de la revista académica Life Sciences, Society and Policy, Ienca y su compañero Roberto Andorno proponen cuatro nuevos derechos humanos, necesarios en la etapa inminente de la neurotecnología. Primero, el derecho a la libertad cognitiva, que garantizaría a las personas poder decidir libremente si quieren usar las nuevas interfaces cerebro-máquina, por ejemplo, ante la insistencia de un empleador o del gobierno. Luego, el derecho a la privacidad mental, para escoger cuándo compartir datos neuronales y bajo qué condiciones. Este derecho se anticipa a la posibilidad de espionaje, de auto-incriminación o de compra y venta de datos neuronales, una preocupación especialmente acuciante desde el escándalo de Cambridge Analytica.

En tercer lugar, Ienca y Andorno sugieren un derecho a la integridad mental, que proteja a los usuarios contra daños físicos o psicológicos ocasionados por neurotecnologías. Y, por último, el derecho a la continuidad psicológica, que salvaguarda la identidad personal en un contexto en el que las máquinas puedan alterarla sin consentimiento previo. Las propuestas de Rafael Yuste —articuladas por el grupo Iniciativa NeuroDerechos que él dirige en la Universidad de Columbia— solapan en gran medida con las anteriores, pero incluyen dos derechos más: el derecho al acceso equitativo a las tecnologías de aumento y el derecho a la protección contra prejuicios algorítmicos y discriminación.

Rafael Yuste, neurocientífico de la Universidad de Columbia, dirige la Iniciativa NeuroDerechos. Fuente: Wikimedia Commons

En una entrevista con el diario El País, Yuste subraya que la responsabilidad moral es, en primer lugar, de los tecnólogos y de los neurocientíficos como él, quienes investigan el funcionamiento del cerebro y exploran los límites de su manipulación. Él tiene una visión realista de lo que será capaz de hacer la neurotecnología y él teme que el futuro nos alcance sin habernos preparado. “Tenemos que acudir directamente a la sociedad y a quienes hacen las leyes para evitar abusos”, dice. “Tenemos una responsabilidad histórica. Estamos en un momento en que podemos decidir qué tipo de humanidad queremos”.