_
_
_
_
_

El ‘big data‘ que alimenta al ‘gran hermano’

La implantación del 'sistema de crédito social' en China refleja muchas de las controversias actuales sobre vigilancia digital

Unos figurantes de la Ópera de Pekín consultan su móvil antes de una función.
Unos figurantes de la Ópera de Pekín consultan su móvil antes de una función. JASON LEE (REUTERS)

"Ay, si te vieran tus padres haciendo eso". Todos hemos pasado por alguna situación así. El hecho de sentirnos observados modifica nuestro comportamiento, y siempre en mayor medida cuanto mayor sea la autoridad de la figura que está detrás, vigilando. Las redes sociales están siendo un gran terreno de aprendizaje en ese aspecto. Debemos cuidar lo que decimos. Cómo lo decimos. A quién se lo decimos. Las posibles consecuencias de nuestros actos cambian nuestras actitudes, o al menos su apariencia ante otros observadores. En el mundo digital nunca fuimos quienes realmente somos, sino que somos lo que aparentamos ser.

Que el gobierno chino esté preparando un sistema disciplinario con el que recoger información masiva sobre sus ciudadanos para evaluar su lealtad al régimen comunista ha devuelto el debate sobre la vigilancia digital al centro de las conversaciones sobre tecnología y sociedad. Un algoritmo recogerá datos de las redes sociales de los ciudadanos chinos, información bancaria o de consumo en las redes y premiará a los “buenos ciudadanos” con mayores facilidades a la hora de conseguir una hipoteca, un trabajo o un colegio de mayor categoría para sus hijos.

Los defensores de esta medida valoran su potencial beneficio en aspectos como la credibilidad judicial o la sinceridad social y comercial. Sus detractores avisan de los peligros de crear modelos reduccionistas sobre lo que se considera ser un buen ciudadano y sobre todo de la pérdida total de privacidad. Sin embargo, algunas voces avisan de que este escenario no es algo novedoso. De hecho, advierten que son muchos los mecanismos de este tipo que están en funcionamiento desde hace tiempo.

Así lo afirma Ramón Sangüesa, doctor en informática e investigador en inteligencia artificial y aprendizaje automático. El coordinador del Data Transparency Lab cree esencial el desarrollo de un conocimiento y conciencia del público respecto al potencial de estas tecnologías, ya que “la tentación de gestión tecnocrática siempre ha existido o se ha implementado en cierto nivel, estamos en una fase de deriva autoritaria en todo el mundo, y una buena campaña de marketing institucional nos acaba convenciendo de cualquier barbaridad. Véase desde Edward Bernays [considerado como inventor de la propaganda y las relaciones públicas] hasta el uso de los bots políticos y las fake news en campañas como la de Trump o Clinton”.

Un algoritmo recogerá datos de las redes sociales de los ciudadanos chinos, información bancaria o de consumo en las redes y premiará a los “buenos ciudadanos”

De no contar con esa visión crítica, podremos ser manipulados sin apenas ser conscientes de ello. Dice Sangüesa que “directamente estas plataformas manipulan tus sentimientos y emociones” haciendo referencia a un estudio secreto llevado a cabo por Facebook. Esta red social llevó a cabo un experimento de ingeniería social mediante el que modificó el estado de ánimo de cerca de 689.000 usuarios de la red social a partir de las publicaciones de sus amigos. El fenómeno de contagio emocional masivo permitió un mayor conocimiento de la forma en que nos relacionamos, pero también de la relativa facilidad con que se nos puede manipular a nivel psicológico.

Sin embargo, las emociones transmitidas a través de la red social no dejaban de ser eso, emociones, al menos en apariencia. Nadie podía confirmar que esas expresiones de alegría o tristeza fueran el sentimiento real de esas personas. “Somos, de entrada, animales sociales, pero desde el siglo pasado basculamos de manera más asumida entre lo que sentimos que hay que proteger (nuestra intimidad) y la presentación de la persona en la sociedad (nuestro derecho a tener privacidad) […] Esto de comportarnos distinto ante los demás nos viene de lejos”, afirma la doctora Raquel Herrera, profesora e investigadora en comunicación digital cultural.

Herrera considera que en casos como el de China “el esfuerzo por aparentar y el de "escapar de las apariencias" (ambos maximalismos) irán de la mano”, y que surgirán dinámicas centradas en aprender cómo se puede hacer trampas para saltarse algunas de las imposiciones del sistema. Un sistema que, dada su envergadura, funcionará mediante algoritmos de aprendizaje automático que, tras una fase de entrenamiento, funcionarán por su cuenta. Ese grado de autonomía plantea un nuevo interrogante: ¿funcionarán estas tecnologías sin control humano?

“Inevitablemente deben revisarse tras un tiempo”, dice Ramón Sangüesa. “La cuestión es bajo qué parámetros y valores se orienta esa revisión en este tipo de aplicaciones de ranking de ciudadanos. […] Hay mucho que hacer por incorporar nuevos marcos evaluativos en los decisores y los tecnólogos que trabajan a sus órdenes. Por el momento buena parte de lo tecnológico, de Silicon Valley, opera más allá de estas consideraciones. Es una cultura de la eficiencia desconectada de otros valores, en general”, añade. Otros expertos llevan tiempo destacando esa falta de responsabilidad social de grandes empresas tecnológicas como Uber, cuyo modelo de negocio ha causado distintos escándalos en los últimos años.

Es un enfoque cultural carente de unos valores que, de no incorporarse, podría llevar a escenarios poco o nada controlables, como máquinas que lleven a cabo esa labor de vigilancia de forma autónoma. Hace falta una prescripción adecuada que informe hasta dónde deben aprender estos sistemas y de qué fuentes deben aprender. Y para lograrlo, como insiste Sangüesa, hace falta mucha comunicación y conocimiento, además de otras iniciativas que incentiven otros escenarios más positivos como mydata.org, un movimiento que ofrece guías para tener un mayor control sobre toda la información que generamos en nuestra actividad cotidiana. O las actividades educativas para el gran público que organiza el propio Sangüesa desde el colectivo equipocafeina.net. De no ser así, tal vez volvamos a recordar –una vez más- estas palabras que Margaret Atwood plasmó en El cuento de la criada: “La humanidad es muy adaptable, decía mi madre. Es sorprendente la cantidad de cosas a las que llega a acostumbrarse la gente si existe alguna clase de compensación”.

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_