Su majestad, el Algoritmo: La era de la Inteligencia artificial

Se propone analizarlo desde su aplicación en la vida cotidiana y los nuevos desafíos que encarna en la sociedad en materia regulatoria y el impacto en los procesos tradicionales de interacción social.

Por Melissa Bargman

El presente trabajo se propone delinear los principales conceptos que conforman el campo de la Inteligencia Artificial. Se propone analizarlo desde su aplicación en la vida cotidiana y los nuevos desafíos que encarna en la sociedad en materia regulatoria y el impacto en los procesos tradicionales de interacción social. Se plantea estudiar la tecnología como elemento clave en la generación de valor agregado inserta en un sistema de producción capitalista, dando origen a una nueva economía digital con sus propias y nuevas reglas de juego no siempre contempladas en las legislaciones vigentes.


I. Introducción

Los algoritmos atraviesan nuestra vida. Cada vez más comportamientos de todos los días se encuentran vinculados a dispositivos tecnológicos y aplicaciones. Muchas de las decisiones que tomamos, desde qué camino seguir a la mañana hasta qué pedir en el almuerzo o con quién salir un fin de semana están mediadas por el uso de plataformas.

La información que vemos en la pantalla es seleccionada, filtrada y clasificada de acuerdo a los datos que nosotros mismos proporcionamos: lo que consultamos en los buscadores de Internet, los lugares en los que vivimos o visitamos, las publicaciones a las que reaccionamos, las series que nos entretienen. Somos generadores de datos.

Esta masa infinita de información es estudiada y procesada automáticamente a través de algoritmos, una secuencia de pasos o reglas finitas, que se aplican sobre un conjunto de datos de entrada para resolver un problema. Estas instrucciones claramente definidas y programadas constituyen la base sobre la que se desarrolló y expandió el campo de la Inteligencia Artificial (IA) que busca delinear y perfeccionar el aprendizaje automático de las  máquinas (machine learning).  Cuanto mayor es el volumen de datos que se recolectan de los comportamientos, más acertada será la creación de los perfiles de usuarios: la materia prima sobre la cual se concentran el marketing y la publicidad. Progresivamente, se desarrollan métodos de análisis y búsqueda de patrones sobre el llamado Big dataA diferencia de las técnicas tradicionales de recolección de datos (como por ejemplo las encuestas o llamadas telefónicas para responder cuestionarios de manera voluntaria), Big Data se caracteriza por su espontaneidad y el carácter involuntario con el que las personas generan esa información a medida que usan plataformas. 

Las plataformas digitales se implementaron en todo tipo de prácticas, más allá del entretenimiento o comercio on line: desde el sector médico (reservorios de datos en los que se almacenan historias médicas, antecedentes, resultados de estudios y análisis, diagnósticos) hasta el ámbito educativo (bases de datos con información de rendimiento académico, conducta, datos de menores de edad). Se generan registros de datos sensibles cuya confidencialidad debería ser garantizada por las empresas que desarrollan estos sistemas de bases de datos.

Al tratarse de un mercado que tiende a formar monopolios ¿hasta qué punto se aseguran niveles de innovación y actualización suficientes que logren mejores/mayores estándares de seguridad y de experiencia del usuario si no hay competencia?

Los marcos regulatorios pueden potenciar las instancias de democratización de la sociedad al promover un bienestar general con límites claros en el uso de los datos por parte de los actores que los recaban. Sin embargo, cuando los reguladores son débiles, se tiende a la concentración en el mercado de datos y se pone en riesgo la intimidad de las personas, ya que se deja vía libre para el uso de la información de los usuarios.

II. Inteligencia Artificial: Nadie sabe de mí y yo soy parte de todos

La inteligencia artificial (IA) es una disciplina que tiene impacto en áreas y sistemas complejos tan variados como vehículos autónomos, sistemas de recomendación, toma inteligente de decisiones y búsqueda en internet. Existen desarrollos de IA en asistentes  personales como Alexa y Siri[1], aplicaciones médicas inteligentes de diagnóstico de  enfermedades y vehículos autónomos que interpretan información del contexto e imitan las  capacidades humanas de conducción (Chesñevar, Estevez, 2018, p. 127).

El término “Inteligencia Artificial” fue acuñado por primera vez en 1956 por John McCarthy,  profesor de Dartmouth College que la definió como la “ciencia e ingeniería de crear  computadoras inteligentes”[2]. La definición contemporánea más aceptada fue la planteada por Poole, Mackworth y Goebel en su libro “Inteligencia Computacional: acercamientos lógicos” en el año 1998. Para estos autores la IA conforma la teoría y el desarrollo de sistemas computacionales capaces de llevar a cabo tareas normalmente circunscriptas al ámbito de la inteligencia humana (p.p.146).

La IA representa la teoría y desarrollo de sistemas computacionales que realizan tareas que requieren de inteligencia humana. Machine learning es una metodología que se remite al diseño de una secuencia de acciones tendientes a resolver un problema (Murphy, 2013, p.  2). Este proceso es más conocido como algoritmo y se caracteriza por ser optimizado recurrentemente a través de la experiencia recolectada, aprendiendo del error, con o sin supervisión humana. El algoritmo generaliza “comportamientos” a partir de los datos de entrada: cuánto más datos, se espera que mejor sea la generalización. Los algoritmos de aprendizaje automático se modifican a partir de los datos que recibe (Bishop, 2006, p. 23).

No es casualidad que estemos viviendo una explosión en la generalización del aprendizaje automático ya que por primera vez en la historia la sociedad acumula más datos de los que está en condiciones de procesar y analizar” (Galup, 2019, p. 41). Esta excepcionalidad permite revertir el proceso de investigación y trabajar sobre la información ya acumulada “haciendo hablar a los datos” en lugar de tener que recabarlos como punto de partida. Lo que antes se almacenaba en gigantescas bibliotecas o infinitas cajas de archivos, ahora se resguarda en complejos entramados de servidores como Amazon o Google: lo que se conoce como “la nube”. La nube es un dispositivo de almacenamiento global de información, disponible para el uso de cualquier usuario. La nube proviene del cloud computing definido como la prestación de un servicio de alojamiento y procesamiento masivo de datos en servidores, archivos virtuales a través de Internet. Se puede guardar todo tipo de información personal como documentos, comprobantes de pago de servicios, páginas de libros.

La infraestructura para la gestión y mantenimiento de la nube está en manos de empresas privadas (en su mayoría provenientes de Estados Unidos) o de los Estados como sucede en China. Hay un tercero que almacena esa información (y que por lo tanto puede acceder y reproducir). Los usuarios no utilizan el propio espacio de almacenamiento de su dispositivo.  Estos servicios que se presentan como gratuitos tienen un costo: los datos que ceden los  usuarios, registros voluntarios (publicaciones compartidas en redes, ubicaciones habilitadas  o suscripciones) e involuntarios, casi invisibles como búsquedas y cookies[3].

El uso organizado de estos datos y su análisis a partir de algoritmos permiten detectar conexiones y construir patrones de comportamiento, pensamiento o consumo, idea que da lugar al surgimiento de la noción de Big Data.

Si bien todavía el término no cuenta con una definición unívoca y consistente, sí existe un consenso respecto a las características de este nuevo fenómeno.

Los Big Data constituyen una acumulación espontánea de información. Se diferencian de otros métodos tradicionales de recolección de datos como las encuestas que tienen una estructura con objetivos predefinidos y se aplican sobre un público representativo de la muestra (Sosa Escudero, 2019, p. 31). Los Big Data son el resultado de otra acción. Por ejemplo, cuando se lee un artículo periodístico se generan metadatos: sobre qué noticias el usuario centra su interés, a qué medio acude para informarse, qué artículos sigue y hasta dónde, a qué hora del día y cuánto tiempo permanece en cada nota. 

Para caracterizar el fenómeno de Big Data, Walter Sosa Escudero aplica al mecanismo de las cinco V: Volumen, Velocidad, Veracidad, Variedad y Valor:

Volumen: desde que las interacciones humanas y el consumo de bienes y servicios  se llevan a cabo en lo que Manuel Castells denomina la “sociedad en red”[4] mediada por plataformas, los datos dejan de  ser almacenados en formatos físicos y empiezan a ser registrados en forma  automática, a través de máquinas con capacidad de almacenamiento creciente. Por lo tanto, aumenta de manera exponencial.

Velocidad: es el ritmo con el que se mueven los flujos de datos, al punto de estar disponibles en tiempo real. Las formas de consumo de cultura y de interacción entre las personas a través de plataformas exigen inmediatez como en el envío y recepción de mails o mensajes de Whatsapp. Mayor es la exigencia por la instantaneidad en eventos transmitidos en vivo en los que millones de paquetes de datos de audio y video deben llegar coordinados a millones de personas.  Representa un desafío de mejora permanente de las tecnologías para expandir los límites de incorporación y circulación de datos.

Veracidad: La multiplicación de los datos da lugar a cuestionarse la calidad de la información: “el incremento de la cantidad le franquea la puerta a la inexactitud” (Cukier Mayer-Schönberge, 2013, p.25). Implica un desafío en la recolección de los datos. Debe haber instancias de verificación de su nivel de confiabilidad para decidir si pueden ser incluidos en una investigación. Se trata de datos ruidosos y espontáneos que no se generan a partir de una base teórica ni sobre muestras definidas metodológicamente. Es la cualidad menos manejable ya que la propia lógica de la velocidad y el fácil acceso a las redes hace cuestionar la información.

Variedad: En interacción con plataformas, los usuarios generan datos diversos: tuits, fotos, archivos de texto, videos, audios, posiciones geográficas. Las sociedades compilaban su información en fuentes estructuradas como archivos públicos, expedientes, bibliotecas, agendas, álbumes de fotos. Con el desarrollo de las tecnologías, se configuró un mundo de datos desestructurados, sin formato específico. Esto permite recolectar cualquier tipo de información, pero al contar con muy poca sistematicidad, se deben idear procedimientos para organizar los datos y darles mayor coherencia.

La conjunción de estas cuatro características da lugar al Valor que adquiere toda esta información a la hora de ser interpretada. Los datos que se pueden tomar de un dispositivo móvil son muchos, pero su valor viene dado por el uso que se hace de los mismos. Por ejemplo, las ubicaciones en tiempo real de los celulares pueden ser utilizadas en aplicaciones de mapas de tránsito para detectar embotellamientos o cortes. “El valor se desplazó de las infraestructuras físicas, como la tierra y las fábricas, a los intangibles, como las marcas y la propiedad intelectual. Estos se expanden ahora a los datos (…) aunque todavía no se registran en los balances de las empresas, probablemente sea solo cuestión de tiempo” (Cukier Mayer Schönberge, 2013, p.14).

Poder aprender y generalizar a partir de los datos construye nuevas perspectivas para resolver problemas. Sin embargo, las soluciones serán tan efectivas como lo sean los datos.  Si tienen sesgos, el resultado de los algoritmos se verá afectado. 

Ya en 1988, se demostró que en los procesos de selección laboral, los algoritmos otorgaban puntajes menores a mujeres y candidatos de las minorías raciales. Por lo tanto, reducían sus posibilidades de ser entrevistados (Lowry, Macpherson, 1988). El problema no era que el algoritmo creara nuevos sesgos por género o raza, sino que aprendía de los datos históricos y los reproducía. Los modelos de IA actúan a partir de los datos que procesa: si los algoritmos utilizan datos que están impregnados de problemas de discriminación, los algoritmos también imitarán estos comportamientos. “Si los datos son un reflejo de la realidad tal cual es hoy, incluirán todos los prejuicios y comportamientos discriminatorios existentes en la sociedad y (…) formarán parte del algoritmo final” por ejemplo al sugerir un sueldo promedio a un posible candidato (Sampietro, Costa, 2018, p. 268).

Si el objetivo es aprender y reproducir el comportamiento humano, “los modelos de IA pueden aprender lo bueno, pero también lo malo, como la acción de discriminar” (Lavista, 2018, p. 252). Estos modelos deben estar entrenados para identificar que hay discriminación y ofrecer una forma de resolverla minimizando los sesgos inherentes a los datos. Para ello, se debe controlar que los datos sean representativos, que no contengan sesgos (o tenerlos en cuenta a la hora de evaluar los resultados) y entender de qué modo el sistema identifica las características distintivas para tomar una decisión.

Deben existir instancias legales e institucionales que exijan la presencia de un equipo académico para la auditoría de los resultados. El algoritmo no puede ser una caja negra en la que confiar ciegamente: aunque los algoritmos parezcan científicos y objetivos, están impregnados de subjetividad y no son más que “opiniones embebidas en códigos” (O´Neil, 2017, p. 8). No son mejores que los seres humanos ya que están hechos a la medida de la humanidad.

Los algoritmos definen perfiles digitales que determinan filtros y sistemas de recomendación sobre los contenidos a los que acceden los usuarios. Deben llevarse a cabo investigaciones desde el campo de las ciencias sociales que rescaten conceptos teóricos de otros contextos históricos y los resignifiquen bajo la óptica de las nuevas tecnologías: “el interesante enigma de nuestros tiempos es que caminamos sonámbulos de buen grado a través del proceso de reconstrucción de las condiciones de la existencia humana” (Winner, 2008, p.43). Tal como argumenta Byung-Chul Han “la interconexión digital total y la comunicación total no facilitan el encuentro con otros. Más bien sirven para encontrar personas iguales (…) haciéndonos pasar de largo ante los desconocidos (…) y se encargan de que nuestro horizonte de experiencias se vuelva cada vez más estrecho (2017, p. 12).

III. Privacidad y Derecho a la Comunicación.

Hablar de perfiles digitales es alejarse cada vez más de la privacidad. Pero, ¿qué es la privacidad? Es aquello sobre lo que se tiene control para proteger de cualquier intromisión.  Con los avances tecnológicos y la diversificación de técnicas de tratamiento de datos, la vida privada paso de “ser concebida en términos de la libertad negativa de rechazar u oponerse al uso de la información personal para transformarse en la libertad positiva de supervisar su uso” (Guida, Himelfarb, Sanchez Porto, 2009, p.4). “Igual que la imprenta preparó el terreno para las leyes que garantizaban la libertad de expresión –que no existían antes, al haber tan poca expresión escrita que proteger–, la era de los datos masivos precisará de nuevas reglas para salvaguardar la inviolabilidad del individuo” (Cukier Mayer Schönberge, 2013, p.15)

El derecho al olvido, introducido en el RGPD[5], puede significar para los usuarios un mayor  margen de control sobre la disponibilidad de sus datos en internet. Sin embargo, se generan nuevas tensiones entre los derechos de protección de datos, el honor y la reputación con el derecho a la información y a la libertad de expresión. La Declaración Universal de los Derecho Humanos, en su artículo 19, como la Convención Interamericana de Derechos Humanos, en su artículo 13, definen el derecho a la opinión, a la crítica y a la pluralidad de contenidos como condiciones necesarias para la calidad democrática de la sociedad.

Se trata de conceptos y límites que en la práctica pueden ser muy difíciles de definir y hacer primar unos sobre otros. Por ejemplo, si el nombre de una persona es citado en una nota periodística como testimonio por ser partícipe de una marcha, ¿puede ser suprimido o eliminado el link que vincula su nombre con el contenido en cuestión? Más allá de que la persona no quiera ser asociada a ese evento, ¿hasta dónde se vulnera el derecho a la información del resto de los usuarios? Si un funcionario fue condenado por un delito de corrupción y cumplió su pena ¿puede solicitar que se remueva cualquier link que vincule su nombre con el hecho en cuestión? Si ya completó la sanción impuesta ¿por qué debe seguir relacionado con este delito? Sin embargo, ¿cuál es el lugar del derecho a la información de la sociedad y el interés público para el que es relevante tener memoria sobre estos hechos?

El consentimiento es la herramienta legal que autoriza a las empresas a trabajar con los datos de los usuarios. Sin embargo, se carga al usuario con la responsabilidad de estar al tanto de lo que acepta. No se le ofrecen instancias fácilmente accesibles que recalquen o recuerden las condiciones de uso, o los instrumentos con los que cuentan para defender su derecho de protección de datos. Son pocos los usuarios que acceden al detalle de términos y condiciones y leen detenidamente toda la información, sumado a que suele estar presentada en un lenguaje propio del campo del derecho. Entonces ¿alcanza con exigir solamente un consentimiento por parte de los usuarios para garantizar que son plenamente conscientes de lo que ceden, y del nivel de control que las empresas tienen sobre su vida virtual? La escritora y periodista Marta Peirano argumenta que, al abrir una cuenta en alguna plataforma, se genera una relación íntima entre el usuario y el servidor, lo que llama “engagement”: “porque entre las dos partes se interpone un contrato prenupcial que el usuario debe aceptar como una novia agradecida, sin modificaciones ni anexos, llamado Términos de uso.” (2018, p.19). En el año 2015, los términos de iTunes contenían veinte mil palabras y los de Facebook quince mil, divididos en múltiples segmentos y con un complejo lenguaje, difícil de entender por un usuario promedio.

A pesar de que ese consentimiento implique una acción expresa del titular de los datos ¿no se termina convirtiendo en una sucesión de “hacer clics” en casilleros para poder tener acceso a plataformas y sitios web de manera rápida? Debería existir la obligación de exigirles a los agentes de tratamiento de información que destinen espacios para informar a los usuarios de la existencia de las herramientas con las que cuentan para tener control sobre sus datos.

IV. ¿Solistas, dúos o cuartetos?

Sin políticas que aseguren la competencia, la innovación en el campo de IA tiende a conformar mercados oligopólicos o monopólicos. “Los líderes del mercado están determinados por el acceso a los datos, el poder de cómputo, los talentos altamente calificados para programar algoritmos y la propiedad de todos estos desarrollos” (Mialhe, Lannquist, 2018, 224). Los Estados y las principales empresas recopilan más datos de usuarios, contratan profesionales más formados y tienen más recursos para invertir en hardware y software de procesamiento y análisis en la nube.

El mercado mundial está dominado por las empresas estadounidenses Google, Amazon, Facebook, Apple y Microsoft (GAFAM) y las asiáticas Baidu, Alibaba, Tencent y Xiaomi (BATX). La mayor parte de los desarrollos en procesamiento de datos está concentrada en estas empresas, que además tienen el poder de identificar y adquirir potenciales competidores.

¿Cuál es el problema de la formación de semejantes monopolios en la economía de las plataformas? Como tienen un rol cada vez más crítico en la interacción social, la vida académica y el consumo de productos y servicios, los usuarios están cada vez más dispuestos a resignar su información ya que no consideran viable la posibilidad de abandonar las plataformas. Esto mismo sucede para las empresas que deben aceptar condiciones abusivas ya que les resulta inevitable estar en los acotados canales por los que circulan millones de personas.

Las plataformas son las protagonistas de la nueva economía. Para describirlas Nick Srnicek se aleja del análisis que las coloca como actores buscando poder y las inserta en el modo capitalista de producción: un sistema que “exige que las empresas busquen constantemente nuevos caminos para obtener ganancias, nuevos mercados, nuevos commodities y nuevos métodos de explotación” (2018, p. 13).

Las plataformas se construyen en este ecosistema como “infraestructuras digitales que permiten que dos o más grupos interactúen” (p. 45). Se trata de intermediarias que vinculan espectadores con entretenimiento, compradores con objetos físicos, trabajadores con empresas. Las considera como infraestructuras puesto que brindan a los usuarios las bases sobre las cuales sentar sus propios negocios o proyectos “sin tener que construir un mercado desde cero”.

Según Srnicek, el éxito de las plataformas radica en el efecto en red: “mientras más numerosos sean los usuarios que hacen uso de la plataforma, más valiosa se vuelve esa plataforma para los demás” (p. 46). Cuanta más gente use un producto o servicio, más valioso será para otros usuarios. Una persona que busca un producto ingresa en Amazon porque encuentra la mayor oferta de compras y marcas; alguien interesado en conectarse con su entorno o establecer nuevos vínculos sociales, se registrará en Facebook o Instagram ya que concentran millones de usuarios; si necesita buscar la dirección de un determinado lugar, accederá a Google que cuenta con millones de colaboraciones de otros usuarios. El valor de las plataformas que se dedican a la venta de publicidad, principalmente Google y Facebook, aumenta con el número de usuarios. Los anunciantes obtienen acceso a una base de consumidores más grande y, por lo tanto, a un tesoro mayor de datos de potenciales clientes. Hay una lógica en la que los usuarios generan más usuarios que buscan, compran, publican y contribuyen al caudal de datos que los algoritmos procesan para perfeccionar su performance. Así, el autor concluye que el mercado de las plataformas tiende naturalmente a la monopolización.

Scott Galloway reforzará esa idea al caracterizar a las plataformas como “empresas Benjamin Button” (2018, p. 146) que “envejecen en sentido inverso”. A mayor tiempo de uso de una plataforma, más amplio el volumen de datos aportados por los usuarios y mejores las capacidades de procesamiento de los algoritmos que subyacen en la base de estas estructuras.

Ambos autores coinciden en que estas plataformas tienden a otro comportamiento que potencia los monopolios: la compra de proyectos innovadores que pueden llegar a poner en a que su posición dominante “gastando importantes montos de dinero para comprar otras empresas (…) se están convirtiendo en dueñas de las infraestructuras de la sociedad” (Srnicek, 2018, p.84). Las adquieren para incluirlas entre sus funcionalidades y también para cerrarlas o discontinuar los productos subyacentes (adquisiciones asesinas).  El acceso superior a datos que tienen estas empresas, a través de su ingeniería y sus bases de millones de usuarios, hace que identifiquen y adquieran rivales al principio de su ciclo de vida, antes de que ninguna autoridad pública pueda identificar su rápido crecimiento y prohibir esa compra por ser anticompetitiva.

La concentración en el mercado de datos afecta de lleno en la libertad de expresión. ¿Las plataformas deben ser responsables por el contenido que circula a través de ellas? Si la respuesta es sí, ¿está bien que tengan el poder de decidir qué contenidos se muestran y cuáles no?, ¿no podría considerarse como una censura previa?, ¿qué criterios hacen que un contenido publicado por un usuario en una red sea dado de baja?, ¿quién define esos criterios?, ¿puede una plataforma censurar a un usuario de manera indefinida? 

Los usuarios acceden a información filtrada por algoritmos, cajas negras que muchas veces ni las propias empresas pueden explicar su funcionamiento. “La IA es incapaz de distinguir las noticias falsas, como mucho puede llegar a sospechar cuáles lo son, en función de su origen. Sólo verificadores humanos pueden determinar si una noticia es falsa o no” (Galloway, 2018, p 171). Aunque se empleen personas para moderar contenidos, ¿qué se toma como verdad?, ¿bajo el lente de qué actores se define qué es la verdad o qué publicación es de mal gusto? Si la decisión está en manos de empleados de empresas privadas como Facebook o Google ¿qué garantiza que haya diversidad de pensamientos en las plataformas? Si efectivamente una publicación se da de baja en una plataforma por ser falsa, ¿qué impacto tiene en las millones de personas que efectivamente pudieron acceder al contenido antes de fuera inhabilitado?

Por otro lado, si no se aplican legislaciones para regular este mercado, la posibilidad de generar competencia es nula. Por ejemplo, los usuarios hace más de una década que aportan su información a Facebook. Una Startup jamás contará con esos diez años de datos y, por tanto, no podrá generar preferencias, posibilidades de perfilamiento ni contenidos a medida con tal grado de exactitud. Tal como puntualiza Galloway: “Ningún otro medio en la historia ha podido combinar la enorme escala de Facebook con su habilidad para individualizar el objetivo. Cada usuario ha creado su propia página y la ha ido llenando de contenido personal durante años” (2018, p. 137).

¿Por qué las autoridades regulatorias no tomaron medidas para actuar sobre estas lógicas en un mercado tan sensible? Es difícil encontrar una única explicación, pero existen factores que influyen sobre la regulación estática. 

En primer lugar, hay que tener en cuenta que estas empresas tienen un poder de lobby sin precedentes. En un informe llevado adelante por el Subcomité Derecho Antimonopolio, Comercial y Administrativo de  los Estados Unidos respecto al nivel de competencia en línea, se reconoce que “el crecimiento del poder de  mercado de las plataformas ha coincidido con un aumento de su influencia en el proceso de  formulación de políticas” y hace referencia a un “circuito de retroalimentación: más dinero  gastado en cabildeo puede generar mayores retornos de acciones y participación de  mercado, lo que, a su vez, puede estimular más cabildeo” (pp. 75). Hace referencia a donaciones que Facebook, Google y Amazon realizaron al American Enterprise Institute (AEI) y al Global Antitrust Institute de la Universidad George Mason, instituciones encargadas de defender la calidad de competencia del mercado: “al financiar a académicos y grupos de defensa, las plataformas dominantes pueden expandir su esfera de influencia, dando forma a cómo se gobiernan y regulan” (p. 76). No sólo se trata del poder económico:  los Estados mismos utilizan las plataformas para su propio funcionamiento, por ejemplo, para la publicidad de sus políticas como parte de las estrategias de comunicación y el uso de servicios en la nube para almacenar información. Amazon Web Servicies presta servicios de cloud computing para el sector público. En el sitio web principal de AWS, la empresa  afirma que trabaja con más de 6500 agencias gubernamentales sólo en Estados Unidos[6]. Según el informe anteriormente citado, desde el año 1998, las GAFA, han adquirido en total 500 empresas, sin que las autoridades hayan bloqueado ninguna transacción por cuestionar la limitación en el mercado que eso significaría. Se trata de una preocupación que el mismo Subcomité de Derecho Antimonopolio, Comercial y Administrativo plantea. Aboga por un cambio ya que “al buscar acuerdos adicionales en inteligencia artificial y en otros mercados emergentes, las empresas dominantes de hoy podrían posicionarse para controlar la tecnología del mañana” (pp. 389). Hay que considerar que estas empresas desarrollan e invierten en el desarrollo de Inteligencia Artificial. Un claro ejemplo es la tecnología de reconocimiento de voz incluida en dispositivos móviles, parlantes y, sobre todo en los últimos años, en aparatos del hogar. Estas tecnologías no sólo registran las interacciones de voces del usuario, sino también conversaciones en segundo plano, entre los que puede haber niños. Se plantea toda una serie de desafíos en materia de privacidad frente a una tecnología cada vez más impregnada en las rutinas de las personas y en su propia intimidad.

En segundo lugar, la complejidad inherente de los algoritmos hace que carezcan de claridad técnica y transparencia que permita la auditoría por parte de las autoridades. Ni los propios directores de estas empresas pueden explicar el funcionamiento de los algoritmos detrás de sus prácticas. Poder entender su funcionamiento y sobre todo, detectar maniobras anticompetitivas como la autopreferencia, implica contar con las herramientas técnicas y el conocimiento para hacer un análisis pertinente que funcione como prueba de intencionalidades deshonestas. 

Por último, existen factores geopolíticos que pesan en el margen de acción de los reguladores. Separar estas empresas o someterlas a un control que reduzca su ritmo de crecimiento puede hacer que pierdan relevancia y protagonismo no sólo a nivel nacional sino mundial. ¿En qué posición quedarían respecto de la expansión creciente de las plataformas de China? No hay que olvidar que en ese país también hay un mercado digital concentrado y manejado por el propio Estado que, lejos de abogar por la competencia, se apoya en la concentración para afinar y perfeccionar los recursos de vigilancia de su sociedad.

¿Estas empresas podrían haber surgido en entornos monopólicos como al que ahora está sometida la economía digital?,¿no podría haber otros Jeff Bezos, Mark Zuckerberg con ideas más innovadoras, más ricas?, ¿el mundo llegó a su máxima expresión informática con estas plataformas?

Detrás de estas prácticas monopólicas, hay pequeñas empresas, negocios locales, emprendedores, puestos laborales que están en peligro. Quedan a merced de actores infranqueables que pueden decidir “bajarles la palanca” dentro de sus interfaces, borrándolos del territorio por el que circulan miles de millones de usuarios. El mundo digital, no es nada más ni nada menos que una arquitectura de código en pocas manos. Estos pocos deciden por qué calles puede (y debe) circular más gente, qué negocios deben ocupar más o menos lugar en el espacio público, pueden “cortar una calle” para que no se transite o ni siquiera se perciba como un camino alternativo, planifican con quién el usuario se va a cruzar por la calle con más o menos frecuencia, qué anuncios van a colarse en su camino y a qué información accede para construir su concepción de mundo y los acontecimientos que lo rodean. Un espacio público digital que cada vez tiene menos de público y colectivo, y más de intereses privados que conducen a los usuarios por atajos funcionales a sus propios intereses.

V. Conclusiones

Los usuarios se han convertido en productores de datos que, en interacción, permiten arrojar luz sobre prácticas, preferencias y fenómenos sociales. Pero, ¿son los datos la versión más acabada de nosotros mismos?

Esta nueva revolución industrial, o mejor dicho, esta nueva era tecnológica, implica un cambio radical en las prácticas y los procesos sociales. El primer paso para actuar de manera crítica sobre la nueva realidad es entender los fenómenos que nos rodean cuando nos conectamos, tomamos decisiones y accedemos a la información. Los debates en torno a la transparencia, la privacidad y la libertad de expresión no surgen de la tecnología en sí misma, sino de su interacción con el complejo entramado de relaciones sociales, en cómo las personas se apropian de los desarrollos tecnológicos. Al hablar de Inteligencia Artificial, la primera imagen que invade el imaginario es la de un robot capaz de actuar como un ser humano, y que dominará el mundo. Llegó el momento de abandonar esa idea revolucionaria, de dejar de esperar ese cambio violento de una entidad que reemplazará a la humanidad: no tenemos aún robots pero sí GPS, redes sociales, plataformas de videollamadas. La tecnología no viene a dar vuelta la sociedad de un día para otro, sino que penetra sutilmente en los comportamientos de la sociedad, modificándola casi de manera silenciosa. 

Las nuevas tecnologías no pueden provocar que la sociedad abandone de cuajo sus costumbres y prácticas tradicionales, pero tampoco puede permanecer ajena al avance tecnológico. Debe entender los mecanismos a partir de los cuales se obtienen cifras, se procesa la información y los riesgos que amenazan su privacidad. 

Gran parte de la vida de las personas se desenvuelve en el mundo digital. Un territorio construido sobre hectáreas interminables de código que guardan y se asientan sobre miles de millones de datos de la sociedad. Grandes empresas y Estados disputan por colonizar este territorio a través del uso del “nuevo petróleo”. Estudian a fondo los comportamientos humanos para pulir una maquinaria informática que logre captar la atención de los usuarios, los atraiga a pasar más tiempo en este mundo y generen así más datos, que refuercen el proceso de retroalimentación de un sistema que vende y controla a los usuarios. Se establece así un círculo vicioso conformado por más datos en manos de pocos que generan más conocimiento sobre los públicos y desarrollan más estímulos para que millones de usuarios pasen más tiempo en sus aplicaciones.

Las pocas empresas y Estados más fuertes sobre las se asienta el desarrollo de la economía digital cuentan con enormes capitales para la innovación en un terreno en el que se manejan libremente, allanan la competencia adquiriéndola o clonándola para destruirla.  Concentran recursos humanos y conocimiento que se internalizan en complejos sistemas de cómputo y procesamiento: maquinarias construidas a través de algoritmos específicos y fragmentados en centenares de partes. Piezas de un rompecabezas de una caja negra cada vez más efectiva pero menos explicable.

La sociedad se mueve en un mundo que evoluciona a pasos agigantados, con tecnologías que no entiende cómo funcionan, ni están debidamente reguladas, pero de las que debe depender para llevar adelante su vida social, laboral, académica. Tal como afirma Langdon Winner “si la experiencia de la sociedad moderna nos muestra algo, es que las tecnologías no son simples medios para la actividad humana, sino también poderosas fuerzas que actúan para remodelar dicha actividad y su significado” (2008, p.39). Detrás del “sonambulismo tecnológico” que promete facilitar la vida de la humanidad, hay millonarios intereses económicos y políticos que están interesados en mantener a la sociedad sumida en el sueño de la utopía de un mundo más igualitario, rico y colectivamente construido, esa antigua promesa de Internet.

Las ciencias sociales deben tomar parte en esta nueva reconfiguración total de las estructuras sociales. Pero no deben hacerlo desde un lugar instrumental o reactivo. Esa postura las deja kilómetros detrás de la tecnología que continuamente cambia el terreno social. Deben analizar los fenómenos sociales para anticiparse, para plantear nuevos paradigmas que influyan en las políticas reales, que actúen ante los desafíos de acceso a la información, las brechas sociales, las nuevas relaciones de poder que amenazan los márgenes de decisión, las ideologías en pugna, el riesgo a la manipulación, los sesgos inherentes a la naturaleza humana, los abusos de las empresas y de los Estados en la vigilancia de sus poblaciones. Deben intervenir en la creación de marcos regulatorios capaces de equilibrar la libertad de expresión y transparencia con el derecho a la intimidad y privacidad, la libertad de competencia sin limitar la innovación. La sociedad no se define por las leyes de mercado, sino que el mercado debe adaptarse a las dinámicas sociales. Pero esto sólo se logra si hay investigación que anticipe las nuevas lógicas, la concentración de pocos actores, la construcción de nuevos colectivos y desigualdades.

Se habla de la “necesidad de regular a las empresas”, se critica el problema de los datos y de la privacidad de las grandes compañías, se señala la falta de conciencia o pasividad de los usuarios o los gobiernos frente a estas cuestiones. Sin embargo, si se contempla en el análisis la dimensión económica, el almacenamiento y procesamiento de los infinitos cúmulos de datos generados por los usuarios implican millonarios gastos para las empresas. Las nubes y otros recursos técnicos se apoyan sobre complejas infraestructuras que deben ser creadas, mantenidas y mejoradas constantemente. 

Los usuarios optan por usar las versiones gratuitas de toda herramienta virtual que utilizan en su vida diaria. La sociedad hoy consume, gestiona y distribuye una cantidad de información como nunca antes, apoyándose sobre la gratuidad de producción de contenidos: editamos, diseñamos, escribimos, publicamos, trabajamos colaborativamente, estudiamos, nos conectamos por videollamadas. Cabría preguntarse entonces qué pasaría si como consecuencia de la regulación, las empresas comenzaran a cobrar por los servicios que nos prestan. Es decir, se acotarían los márgenes de almacenamiento y uso de nuestros datos para la publicidad, pero como contraparte, los servicios gratuitos serían muy limitados y los aranceles por su uso deberían ser abonados por los propios usuarios. Si las empresas entienden que la mayoría de los usuarios no quieren pagar por lo que usan, seguirán ofreciendo sus servicios a cambio de los datos. La pregunta es: ¿hay que operar sobre los usuarios para explicarles que no pagar por un servicio equivale a estar dispuesto a ceder privacidad?, ¿hay que operar sobre las empresas que no fueron transparentes al momento de ofrecer la herramienta sin costo alguno, sin explicar que, en realidad, acceden a nuestra información porque les resulta valiosa?, ¿hay que analizar qué es lo que los gobiernos no hicieron a tiempo para frenar a estas empresas? 

La Inteligencia Artificial ha llegado para quedarse y evolucionará exponencialmente.  Potenciará las capacidades de unos pocos para acceder a más datos, filtrar más contenidos, diseñar publicidad más segmentada, vigilar a la población de manera más selectiva. ¿Cómo se puede revertir el proceso para empoderar a la ciudadanía, la democracia y el acceso a la información? Entender la Inteligencia Artificial significa entender el pensamiento y el comportamiento humano. Implica comprender cómo aprende la humanidad para extrapolarlo a modelos y reglas. Una humanidad que tiene pasiones, defectos, ambiciones, enigmas, errores y aciertos que las ciencias hasta el día de hoy todavía intentan desentrañar. ¿Puede un algoritmo representarnos como sociedad? Esa respuesta aún no se encuentra ni en el buscador de Google.

Bibliografía

  • Bishop, C. (2006). Reconocimiento de patrones y Machine Learning. Springer.
  • Chesñevar, C. y Estevez, E. (2018). El comercio electrónico en la era de los bots. En Algoritmolandia (pp. 127-135). Planeta.
  • HAN, Byung-Chul (2017). La expulsión de lo distinto. Barcelona.
  • Invetigation of Competition in Digital Markets (2020).
  • Mayer, V. y Cukier, K. (2013). Big Data. La Revolución de los datos masivos. Turner.
  • Galloway, S. (2018). Four: El ADN secreto de Amazon, Apple, Facebook y Google. Penguin Random House.
  • Galup, L. (2019). Big Data & Política: de los relatos a los datos. Persuadir en la era de las redes sociales. Penguin Random House.
  • Guida, M., Himelfarb, G. y Sanchez Porto, M. (2009). Protección de Datos Personales en la Sociedad Del Conocimiento: El polémico caso del Decreto 625/09.
  • Lannquist, Y. y Miailhe, N. (2018). Un desafío de gobernanza mundial. En G. Beliz (Ed.), Algoritmolandia (pp. 2019-231). Planeta.
  • Lavista, J. (2018). El riesgo moral en el aprendizaje automático. En G. Beliz (Ed.). Algoritmolandia (pp. 245-252). Planeta.
  • Lowry, S., Macpherson,G. (1988). A blot on the profession.
  • Mayer, V. y Cukier, K. (2013). Big Data. La Revolución de los datos masivos. Turner.
  • Murphy, K. (2013). Machine Learning. Cambridge.
  • O’ Neil, C. (2020). Armas de destrucción matemática. Cómo el Big data aumenta la desigualdad y Amenaza la democracia.
  • Peirano, M. (2018). El enemigo conoce el sistema. Debate.
  • Poole, Mackwort, Goebel (1998) Inteligencia Computacional: acercamientos lógicos. Cambridge.
  • Sampietro, N. y Costa, M. (2018). Cuando el Gobierno Innova. En Algoritmolandia (pp. 134-135). Planeta
  • Srnicek, N. (2018) Capitalismo de plataformas. Caja Negra Editora.
  • Sosa Escudero, W. (2019). Big Data: breve manual para conocer la ciencia de los datos que ya invadió nuestras vidas. Siglo XXI.
  • Winner, L. (2008). La ballena y el reactor: una búsqueda de los límites en la era de la alta tecnología. Gedisa.

Referencias

[1] Servicios de reconocimiento de voz basados en la nube desarrollados por Amazon y Apple respectivamente incluidos en  dispositivos móviles.

[2] http://www-formal.stanford.edu/jmc/whatisai/node1.html

[3] Las cookies o galletas informáticas son pequeños conjuntos de información enviados por los sitios web y almacenada en el  navegador del usuario, de manera que el sitio web puede consultar la actividad previa del mismo para diferenciarlos y para  actuar de forma diferente y personalizada.

[4] Castells, M. (2003). Internet, libertad y sociedad: una perspectiva analítica. POLIS, Revista Latinoamericana.

[5] Reglamento de Protección de Datos Personales 2016/679 conforma la legislación más  completa en materia de protección de datos personales. Comenzó a aplicarse en la Unión  Europea a partir del 25 de Mayo del 2018.

[6]https://aws.amazon.com/es/government-education/government/

Autor/a

  • Licenciada en Ciencias de la Comunicación Social en la Universidad de Buenos Aires, docente en la Facultad de Ciencias Sociales (UBA), especialista en tecnologías educativas y miembro del equipo de profesionales del módulo de Políticas TIC en el Observatorio de Políticas Públicas de UNDAV.

Compartir en redes
Imagen por defecto
Melissa Bargman

Licenciada en Ciencias de la Comunicación Social en la Universidad de Buenos Aires, docente en la Facultad de Ciencias Sociales (UBA), especialista en tecnologías educativas y miembro del equipo de profesionales del módulo de Políticas TIC en el Observatorio de Políticas Públicas de UNDAV.

Artículos: 0