SD. La siguiente entrevista acaba de aparecer en la revista Mente y Cerebro, correspondiente a los meses de julio agosto. Fue realizada por José Viosca Ros y debido a su gran interés científico, para el futuro de la humanidad, Notaclave.com se honra en reproducirla y agradecer la cortesía de los editores y el autor.
Rafael Yuste, un experto en neurociencias de la Universidad de Columbia y padre del proyecto BRAIN, mantiene la firme convicción de que la humanidad debe prepararse ahora para las importantes consecuencias éticas y sociales que el uso de las neurotécnicas y la inteligencia artificial tendrá en los próximos años.
Nacido en Madrid en 1963, Yuste estudió medicina en la Universidad Autónoma de Madrid y se doctoró en la neoyorquina Universidad Rockefeller bajo la supervisión del premio nóbel Torsten Wiesel. Allí desarrolló la técnica de imagen de calcio, un método fundamental para visualizar la actividad de las neuronas y que hoy se emplea en cientos de laboratorios de todo el mundo. Desde 2005 es catedrático de ciencias biológicas y neurociencia de la Universidad de Columbia. En la actualidad dirige el Centro de Neurotecnología y el Instituto Kavli de dicha universidad, además del proyecto BRAIN.
P. ¿Qué es el proyecto BRAIN?
R. Se trata de la mayor inversión en la historia destinada a impulsar la investigación del cerebro. El objetivo del proyecto es desarrollar nuevas técnicas para poder leer, modificar y descifrar la actividad neuronal.
P. ¿Permitirán estas técnicas curar las enfermedades cerebrales?
R. La finalidad que se persigue no es directamente curar enfermedades neurológicas y mentales, sino desarrollar la tecnología para comprender el cerebro y poder curarlo.
P. En pocas palabras, primero hay que saber cómo funciona este órgano para poder sanarlo.
R. Exacto. Imaginemos una casa en la que la bandera que ondea en el tejado es curar los trastornos mentales. En el proyecto BRAIN no somos los arquitectos que intentan erigir toda la casa, solo somos los constructores que están colocando los cimientos. Primero hay que desarrollar estas técnicas para que, después, en el futuro, alguien pueda entender estas enfermedades; aunque no sabemos cuándo ni quién.
P. Usted sostiene que se necesita regular el uso de las neurotécnicas, ¿por qué?
R. Las técnicas que se están desarrollando en relación con nuestro proyecto, las cuales sirven para descifrar y alterar la actividad de las neuronas, son cada vez mejores. Por ello, las consecuencias de utilizarlas resultan cada vez más serias. Por un lado, pueden ofrecer una mayor y mejor ayuda a los pacientes, pero también pueden usarse de manera que no sean beneficiosas para la humanidad. Estamos viendo, y vemos venir, situaciones en las que las personas se encuentran desprotegidas ante el uso pernicioso de estas técnicas. Debemos hacer algo, porque no tenemos unas reglas o directrices para su utilización. En este caso, la técnica va por delante de la sociedad.
P. ¿Está sucediendo ya?
R. Ahora mismo hay decenas de miles de pacientes que tienen implantes cerebrales, electrodos que estimulan su cerebro, para ayudarles en distintos tipos de enfermedades. No es algo que sucederá en el futuro, sino que ya ocurre en la actualidad. Las técnicas que se están desarrollando permiten que estos implantes tengan mucha más potencia e interfieran en las actividades mentales. En el mundo existen muchos casos de interfaz cerebro-ordenador en los que se consigue que una persona con parálisis mueva un brazo robótico. Por ejemplo, en los últimos mundiales de fútbol en Brasil, el chute inicial lo dio un joven paralítico que, mediante el cerebro, comandaba un ordenador que, a su vez, controlaba sus piernas y brazos robóticos. No es ciencia ficción, ya ha ocurrido. De hecho, las neurotécnicas se están aplicando junto con los algoritmos de inteligencia artificial.
P. ¿Cuáles son los principales problemas en este terreno?
R. Por un lado, existen aspectos humanos fundamentales que se hallan desprotegidos, como la privacidad mental, es decir, la información sobre nuestra mente, la identidad y la agencia personal [libre albedrío]. Por otro lado, es necesario regular la potenciación mental y física de las personas. En la actualidad, no hay ninguna orientación ni ley que regule este aspecto. También surgen cuestiones de justicia social: estas técnicas tienen que ser accesibles a toda la población, no solo a las personas que puedan pagarlas. Y por último, existen situaciones de sesgo: estas técnicas, combinadas con la inteligencia artificial, presentan unos sesgos intrínsecos que perjudican a una parte de la población de una manera discriminatoria.
P. ¿De qué forma la potenciación mental y física puede llegar a ser problemática?
R. Somos seres sociales y necesitamos sentirnos similares a los demás. La introducción de una tecnología que expanda radicalmente las capacidades mentales o sensoriales puede generar presiones para que las personas que no desean ser percibidas como distintas las adopten. Si no hay un acceso equitativo, se generarán nuevas formas de discriminación. También resulta fácil pensar en una posible carrera armamentística para desarrollar armas que exploten la potenciación con el fin de producir «supersoldados».
P. ¿Y a qué sesgos intrínsecos se refiere?
R. A sesgos raciales, de género, y otros. Un estudio del año 2015 desveló que los anuncios de ofertas laborales que presenta el algoritmo de Google a los usuarios ofrecen un salario más bajo a mujeres que a hombres. En el sistema judicial estadounidense, el año pasado se conoció que los algoritmos que la policía utiliza para predecir la reincidencia criminal de un acusado en un juicio atribuyen erróneamente una mayor probabilidad de cometer un crimen a las personas negras que a las blancas con antecedentes similares.
P. ¿Podrían estas técnicas poner en riesgo la privacidad de la vida mental? ¿Es similar a lo que estamos viendo con Facebook?
R. Evidentemente, el problema de la privacidad existe en distintos contextos. Pero me preocupan más las situaciones específicas sobre la privacidad mental de las personas, es decir, la posibilidad de acceder a la información de nuestra mente, tanto consciente como subconsciente. Eso está relacionado con descifrar los patrones de pensamiento que suceden dentro del cerebro, una acción mucho más seria que copiar los datos a través de la cuenta de Facebook.
P. ¿De qué forma podrían acrecentar las desigualdades sociales?
R. Estas tecnologías van a ser muy caras y permitirán aumentar la capacidad mental de las personas. Por esta regla de tres, una consecuencia lógica es que pueden aumentar las desigualdades entre grupos sociales o países.
P. ¿Qué medidas se pueden tomar?
R. Proponemos varias líneas de actuación. Una de ellas consiste en proporcionar formación ética a los ingenieros y científicos que diseñen tanto neurotécnicas como inteligencia artificial. Proponemos que se siga el modelo de la deontología médica. Las reglas éticas que a lo largo de la historia los médicos han cumplido a través del juramento hipocrático deben aplicarse también a estas profesiones.
P. Es importante legislar.
R. Así es. La otra propuesta que planteamos es que este tema llegue a organizaciones internacionales, como las Naciones Unidas o el Parlamento Europeo, por ejemplo. Consideramos que debe formarse una comisión que aborde el problema de las orientaciones éticas para la neurotecnología y la inteligencia artificial. En relación con ellas, es importante que se reconozcan y se protejan unos derechos básicos, los neuroderechos, los cuales deben incluirse en la Declaración Universal de los Derechos Humanos. A partir de ahí, tendrían que extenderse a los sistemas legales de los distintos países.
P. ¿Cuán avanzado está el proceso? ¿Hay algún borrador inicial que dé forma o contemple esos neuroderechos?
R. Hace unos meses publicamos en la revista Nature una propuesta concreta para añadir los neuroderechos a la Declaración Universal de los Derechos Humanos. Todavía nos encontramos en una fase inicial. Hay diversas organizaciones interesadas en que se avance en esa dirección. Por mi parte, cada vez percibo un mayor interés por el asunto y estoy teniendo las primeras reuniones con Gobiernos de distintos países, pero aún no hay nada concreto.
P. Las empresas que desarrollen las neurotécnicas deben responder por la seguridad y la privacidad de sus productos, afirma. ¿Cómo se consigue ese objetivo?
R. Las empresas deben ser responsables legalmente de los problemas que puedan surgir. Por esa razón, es indispensable disponer de una legislación que regule el sector. Del mismo modo que los bancos responden cuando hay un problema financiero, las empresas que desarrollen neurotécnicas tienen que responder cuando se haga un mal uso de las herramientas que desarrollen.
P. ¿Legislar o prohibir?
R. Prohibir no es la solución, porque podría surgir un mercado negro. En cambio, se debería promover un debate abierto y en profundidad. Es mejor hacer las cosas abiertamente que prohibir de golpe.
P. ¿Se debe empezar ahora?
R. Debemos reflexionar con antelación sobre las repercusiones sociales de los avances científico-tecnológicos. Si vemos los problemas por adelantado podemos tomar medidas para prevenirlos.
Notas de las mejores agencias de noticias internacionales.