Search and Hit Enter

La amenaza algorítmica

La noticia internacional, y que literalmente ha corrido como una bola de nieve, es la divulgación de toda una red de espionaje, basada en el software Pegasus, de la empresa israelí NSO Group, con la que espiaba alrededor de 50 mil teléfonos de diferentes personajes en varias naciones. desde 2016.

La investigación fue realizada por un conglomerado de medios de comunicación de élite mundial, incluido The Washington Post.

Ya se ha escrito mucho al respecto a nivel mundial y en México, donde decenas de víctimas estuvieron involucradas y fueron afectadas de diferentes formas. En nuestro país, de hecho, el asunto ya entró en la agenda político-judicial del actual gobierno.

Lo notable es que, desde hace casi cinco años, ha habido comentarios sobre estas sospechas, ahora confirmadas, sobre un programa sofisticado que solo se vendió a gobiernos formalmente establecidos. Esto implica que, dentro de estos, inevitablemente se incurrió en el uso ilegal de dicha tecnología para espiar a opositores políticos, periodistas y líderes sociales, algunos perseguidos e incluso asesinados luego del inicio formal en el uso de dicho software.

El estudio «Comprensión de la toma de decisiones algorítmicas: oportunidades y riesgos» llama la atención sobre este tipo de abuso en el que se puede incurrir con el uso de la tecnología más sofisticada.

Se trata de un trabajo destacado del Instituto Nacional de Investigación en Informática y Automatización (Inria, por sus siglas en francés), presentado en 2019, por encargo del Panel para el Futuro de la Ciencia y la Tecnología, del Parlamento Europeo.

Entre los temas destacables que abordan los autores de este trabajo, precisamente en términos de peligros y riesgos con los llamados Sistemas de Desarrollo Algorítmico (SDA), se destaca la gestión ilegal y persecutoria por parte de gobiernos corruptos:

“Los estados pueden hacer un mal uso de las APS para controlar a las personas, por ejemplo, para identificar a los oponentes políticos. De manera más general, los grupos de interés o los estados pueden verse tentados a utilizar estas tecnologías para controlar e influir en el comportamiento de los ciudadanos. Estas tecnologías también se pueden utilizar para distorsionar la información, para dañar la integridad del discurso democrático y la reputación de líderes gubernamentales o políticos ”, reza el texto, perfectamente aplicable al caso Pegasus.

Las bonanzas en el uso de sistemas automatizados, generadas gracias a las SDA, para planificar el funcionamiento y crecimiento de las empresas o la aplicación de políticas públicas, con la toma de decisiones fundamentales en base a lo que ofrecen estos datos, es apreciada por todos los que ya están conscientes del potencial de estas herramientas y ya las estamos utilizando.

Sin embargo, no siempre se tienen en cuenta los riesgos, errores y consecuencias negativas que deben sufrir quienes utilizan estas bases algorítmicas, así como los destinatarios de programas empresariales o políticas públicas, cuando la tecnología ha sido mal utilizada.

Los autores del estudio que comento llaman la atención sobre la naturaleza de estas fallas, que comúnmente pueden tener un origen involuntario, debido a descuidos en cuestiones técnicas, legales o éticas, sin dejar de llamar la atención cuando nos enfrentamos a distorsiones generadas voluntariamente. con el objetivo de lograr intereses mezquinos, como parte de la competencia desleal o con fines de lucro (económicos, políticos, gubernamentales), fuera del marco regulatorio aplicable.

Además de dedicar gran importancia a las cuestiones técnicas relacionadas con el trabajo de los desarrolladores SDA, los investigadores de Inria abordan cuestiones éticas, políticas y legales a las que se debe prestar atención permanente en el desarrollo de algoritmos en los que se basarán en el individuo, la empresa o decisiones de política pública.

Áreas como justicia, educación, salud, laboral, seguridad y muchas más, a nivel privado y público, vienen recurriendo desde hace años a aquellos sistemas con algoritmos que ayudan a automatizar el trabajo y asumir determinaciones que antes solo hacían los humanos.

Las ventajas de la rapidez, precisión y eliminación de vicios (como los prejuicios tan característicos de las personas) son algunos de los mayores beneficios que, sin embargo, no han sido eliminados por los programas y máquinas que ahora realizan este tipo de tareas, simplemente porque, para humanos. Se siguen produciendo errores en la entrada de datos, sesgos e injusticias.

No Comments

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *