Algoritmos, desidentificación e infrapolítica de la resistencia
Resumen:
Los algoritmos pueden ser vistos como un nuevo tipo de institución en las sociedades contemporáneas, que configura relaciones de poder y reglas que guían contextos de agencia humana. Basado en el concepto de desidentificación de Jaques Rancière y la infrapolítica de James Scott, este artículo explora las posibilidades de resistencia cotidiana al poder de los algoritmos. El artículo reconstruye elementos de interacción entre humanos y sistemas computacionales y la forma en que los algoritmos representan un conjunto de reglas que dan forma a diferentes elementos de la agencia humana. Así, las formas de resistencia al poder de los algoritmos emergen como elementos centrales de la política en el
mundo digital. El artículo examina tres formas de resistencia a través de repertorios de prácticas sociales emergentes: la anonimización, el engaño y la confrontación de sensores y la desidentificación de cuerpos. Basado en estos tres tipos de resistencia infrapolítica, el artículo teoriza sobre la política de los algoritmos y cómo los humanos juegan con los algoritmos en diferentes situaciones cotidianas.
Algunos párrafos
El poder de los algoritmos
Los algoritmos representan una importante fuente de poder en las sociedades contemporáneas. Por medio de ellos, corporaciones y Estados recolectan datos, producen simulaciones, dirigen a grupos de personas de formas variadas
y toman decisiones muchas veces vistas como meramente técnicas, abstractas o
sistémicas, como si no fueran generadas por artefactos sociotécnicos profundamente marcados por las asimetrías existentes y por los valores de aquellos que
se benefician de tales artefactos (Cobbe, 2021). Los algoritmos desempeñan papeles cada vez mayores en muchas áreas de la vida social, involucrando desde asuntos de seguridad hasta movilidade urbana, recursos humanos o decisiones de
compra. Los algoritmos están en el [cerne de la mayoria de las sociedades contemporáneas con profundas implicaciones económicas, sociales, políticas y subjetivas.
Sin embargo, los algoritmos generalmente operan de maneras opacas que no son totalmente comprendidas o percibidas por los ciudadanos comunes, desafiando a la propia
noción de sociedad democrática. Ellos están de alguna forma en el telón de fondo de las arenas de interacción y de los procesos de toma de decisión, moldeando
los contextos de acción de maneras tácitas. Ellos no muestran, más claramente, quién se beneficia y quién es perjudicado por decisiones específicas, ni los
valores y las gramáticas en ellos incorporados bajo el velo de la objetividad técnica que frecuentemente los legitima.
Ellos calculan las probabilidades futuras en base de lo que ya existe y, con eso, terminan cristalizando (y reforzando) algunas dimensiones del status quo o simplemente reproduciendo o profundizando desigualdades estructurales. Los datos informan diferentes aspectos de la vida de los individuos y los modelos que definen los scripts de los algoritmos permiten agrupar a los individuos, creando nuevas asimetrias sociales
o reiterando a las existentes (Joyce et al., 2021)
El poder de los algoritmos es evidente también en la forma en como son usados.
Muchas veces, los algoritmos son empleados bajo la justificación de que tomarán decisiones impersonales y más objetivas. En base a los inputs [las entradas] de grandes volúmenes de datos, los algoritmos son vistos como mecanismos de toma de decisión eficientes y justos, pués formulan evidencias para la acción pública. Los algoritmos son, sin embargo, proyectados por humanos, que son orientados por valores y hacen sus
elecciones de lo que debe ser considerado en una decisión, teniendo en consideración los intereses de grupos, corporaciones o gobiernos para los que trabajan.
Por ser vendidos como “objetivos” y “justos” – y por estar generalmente protegidos del escrutinio externo – raramente son cuestionados
Michel de Certeau (1984) le dedicó también su atención a las artes de resistencia que permean la vida cotidiana. De Certeau argumenta que las prácticas cotidianas – como cocinar, caminhar y leer – están repletas de potenciales creativos. Los individuos reinventan las estructuras y los materiales con los que interactúan, cuando los utilizan y se apropian de ellos. Caminando por la ciudad, por ejemplo, es posible reformular los recorridos y caminos trazados, creando rutas
innovadoras. Aunque la ciudad sea planificada por instituciones y corporaciones, el caminante insiste en recrear el plano de la ciudad de formas que no están
completamente previstas. [Gambiarras pueden también ser vistas como prácticas creativas de lo cotidiano, con el potencial de reinventar usos, funciones y dinámicas de objetos, sirviendo a propósitos diversos, inclusive frente a la escasez
de recursos (Assunção; Mendonça, 2016; Boufleur, 2006). Especificamente en el campo de las tecnologias, Rosas (2008, p. 20) hace una instigante apropiación del término al abordar “la recombinación tecnológica por el reuso o nuevo uso de una tecnologia dada”.
“Toda subjetivación es una desidentificación, un alejamiento de la naturalidad de un lugar, la apertura de un espacio sujeto donde todos pueden ser contados, pués es ek espacio donde se cuentan a los que no cuentan, donde se hace una conexión entre ser parte y no ser parte” (Rancière, 1999, p. 36). La desidentificación cambia no sólo un actor, sino los contextos en que ese actor interactúa. Ella afecta el escenario y el alcance de lo que puede ser dicho y visto.
Nuestro argumento es que una forma relevante de resistência al poder de los algoritmos emerge de los intentos de desidentificación.6
Al negar la naturalidad de un lugar atribuído a si mismo, se puede resistir al poder de los algoritmos. Si el poder de los algoritmos está fuertemente conectado a su capacidade de definir los individuos y de alimentar una realidad a partir de estas definiciones, la desidentificación surge como una poderosa arma de los débiles, en las palabras de Scott. Incorporadas en la vida cotidiana, las tácticas de desidentificación no son una forma colectivamente organizada de resistencia. Ellas operan de manera bastante sutil, aprovechando la oportunidad para manifestarse. Ellas permean diferentes formas de [agenciamento humano en las que los individuos
rechazan la posibilidad de ser conocidos.7
La desidentificación está incorporada en muchas prácticas por medio de las que los sujetos juegan con los algoritmos.
Lo que Scott (2008) buscó oponer al discutir las armas de los débiles. En situaciones extremadamente asimétricas, esas minúsculas, posibles y ocultas formas
de resistencia pueden generar consecuencias reales. Pueden tener un impacto político agregado, afectando el escenario común en que continuamente construímos
la realidad. Ellas permanecen como armas de los débiles, pero representan posibles formas de resistencia que perduran en el tejido social de la vida cotidiana.
Así como en el caminante urbano de Finkel Certeau (1984)
Algo más:
PDf del artículo en portugués
Referencias del artículo para buscar un poco más!
ALMEIDA, V.; FILGUEIRAS, F.; MENDONÇA, R. F. Algorithms and institutions: how social sciences can contribute to governance of algorithms?
IEEE Internet Computing, v. 26, n. 2, p. 42-46, 2022.ALNEMR, N. Defending deliberative democracy in an algorithmic society: building deliberative capacity through contesting algorithmic harms. Unpublished manuscript, 2021.ALVES, P. F. Multistable political becomings: a postphenomenological study of how social media shape the political experiences of young brazilians. PhD Dissertation in Humanities and Social Sciences. University of
Technology Sydney, 2021.ARUBAYI, D. Documenting the everyday hidden resistance of Ride-Hailing
Platform Drivers to algorithmic management in Lagos, Nigeria. South
Atlantic Quarterly, v. 120, n. 4, p. 823-838, 2021.ASENBAUM H. The politics of becoming: disidentification as radical democratic practice. European Journal of Social Theory, v. 24, n. 1, p. 86-104, 2021.ASENBAUM, H. Anonymity and democracy: absence as presence in the public
sphere. American Political Science Review, v. 112, n. 3, p. 459-472, 2018.ASSUNÇÃO, H. S.; MENDONÇA, R. F. A estética política da gambiarra cotidiana. Revista Compolitica, v. 6, n. 1, p. 92-114, 2016.BARRETT, B. An artist used 99 phones to fake a Google Maps traffic jam.
Wired, 3 fev. 2020. Disponível em: Wired Acesso em: 21 nov. 2022.BERGER, M. Why Palestinians are uniting around watermelon emoji.
Washington Post. 9 jul. 2021. Disponível em: Washington Post Acesso em: 9 jul. 2022.BONINI T.; TRERÉ, E. Algorithms of resistance: the everyday fight against
platform power. Boston: MIT Press, 2024.BORAK, M. China’s gig workers are challenging their algorithmic bosses.
Wired, 14 mar. 2022. Disponível em: Wired Acesso em: 25 mar. 2022.BOUFLEUR, R. A questão da gambiarra: formas alternativas de produzir artefatos e suas relações com o design de produtos. 2006. 153p. Dissertação
(Mestrado em Urbanismo). Faculdade de Arquitetura e Urbanismo da
Universidade de São Paulo, 2006BURGESS, P. Algorithmic augmentation of democracy: considering whether technology can enhance the concepts of democracy and the rule of
law through four hypotheticals. AI & Society, v. 37, n. 1, p. 97-112, 2022.CHEN, H.; CHUNG, W.; QIN, J.; REID, E.; SAGEMAN, M.; WEINMANN,
G. Uncovering the dark web: a case study of Jihad on the Web. Journal
of the American Society for Information and Technology, v. 59, n. 8, p.
1347-1359, 2008.COBBE, J. Algorithmic censorship by social platforms: power and resistance.
Philosophy & Technology, v. 34, n. 4, p. 739-766, 2021.COULDRY, N.; MEJIAS, U. Data colonialism: rethinking big data’s relation
to the contemporary subject. Television & New Media, v. 20, n. 4, p. 336-
349, 2019.CRAWFORD. K. The atlas of AI: power, politics, and the planetary costs of
artificial intelligence. New Heaven: Yale University Press, 2021.CROOTOF, R. War torts: accountability for autonomous weapons systems.
University of Pennsylvania Law Review, v. 164, n. 6, p. 1347-1402, 2016.
Disponível em: Scolarship
Acesso em: 3 de abr. 2022.DE CERTEAU, M. The practice of everyday life. Berkeley: University of
California Press, 1984.DONAHOE, E.; METZGER, M. M. Artificial intelligence and human rights.
Journal of Democracy, v. 30, n. 2, p. 115-126, 2019.EUBANKS, V. Automating inequality: how high-tech tools profile, police, and
punish the poor. New York, NY: St. Martin’s Press, 2018.FELDSTEIN, S. The road to digital unfreedom: how artificial intelligence is
reshaping repression. Journal of Democracy, v. 30, n. 1, p. 40-52, 2019.FILGUEIRAS, F. Big data, artificial intelligence, and the future of regulatory
tools. In: HOWLETT, M. P. (ed.). Routledge handbook on policy tools.
London: Routledge, 2022FINKLEA, K. Dark Web. Congressional Research Service, n. 7-5700, 2017.
Disponível em: a51.nl
Acesso em: 20 maio 2022.FRY, H. Hello world: being human in the age of algorithms. New York: W.W.
Norton & Company, 2018.GANESH, M. I.; MOSS, E. Resistance and refusal to algorithmic harms: varieties of knowledge projects. Media International Australia, v. 183, n. 1,
p. 90-106, 2022.GEBEILY, M. Instagram, Twitter blame glitches for deleting Palestinian posts.
REUTERS, 11 maio 2021. Disponível em: Reuters. Acesso em: 22 abr. 2022.GEHL, R.W. Power/freedom on the dark web: a digital ethnography of the
Dark Web social network. New Media & Society, v. 18, n. 7, p. 1219-1235,
2016. Disponível em: Doi.org Acesso
em: 1 maio 2022.HARCOURT, B.E. Exposed: desire and disobedience in the digital age.
Cambridge: Harvard University Press, 2015.INTRONA, L.D.; WOOD, D. Picturing algorithmic surveillance: the politics of facial recognition systems. Surveillance & Society, v. 2, n. 2, p. 177-
198, 2004.JOYCE, K.; SMITH-DOERR, L.; ALEGRIA, S.; BELL, S.; CRUZ, T.; HOFFMAN,
S.G.; NOBLE, S.U., SHESTAKOFSKY, B. Toward a sociology of artificial intelligence: a call for research on inequalities and structural change. Socius:
Sociological Research for a Dynamic World, v. 7, n. 11, p. 1-11, 2021.KITCHIN, R. Big data, new epistemologies and paradigm shift. Big Data &
Society, v. 1, n. 1, p. 1-12, 2014.LAU, T.; AKKARAJU, U. When algorithms decide whose voices will be heard.
Harvard Business Review. Nova York, 12 nov. 2019. Disponível em: HBR.orgAcesso em: 21 nov. 2022.LEDFORD, H. Millions of black people affected by racial bias in health-care
algorithms. Nature, v. 574, n. 6, p. 608-609, 2019.MARCH, J.G.; OLSEN, J.P. The logic of appropriateness. In: GOODIN, R.
E. (ed.). The Oxford Handbook of Science. Oxford: Oxford University
Press, 2009.MARQUES, A.C. S.; MENDONÇA, R.F. A política como (des)construção de
sujeitos: desencaixes e rearticulações identitárias em protestos multitudinários contemporâneos. Galáxia, n. 37, p. 41-54, 2018.MARX, G.T. Windows into the Soul: surveillance and society in an age of high
technology. Chicago: The University of Chicago Press, 2016.MENDONÇA, R. F.; ABREU, M. S.; SARMENTO, R. Repertórios discursivos
e as disputas políticas contemporâneas. Novos Estudos Cebrap, v. 40, n.
1, p. 33-54, 2021.MENDONÇA, R. F.; FILGUEIRAS, F.; ALMEIDA, V. Algorithmic
Institutionalism: the changing rules of social and political life. Oxford:
Oxford University Press, 2023.MONSEES, L. Crypto-Politics: encryption and democratic practices in digital era. London: Routledge, 2019.MOZUR, P. In Hong Kong protests, faces become weapons. New York Times,
26 jul. 2019. Disponível em: New York Times Acesso
em: 21 nov. 2022.NEWELL, A.; SIMON, H.A. Computer science and empirical inquiry: symbols
and search. Communications of the ACM, v. 19, n. 3, p. 113-126, 1976.NOBLE, S.U. Algorithms of oppression: how search engines reinforce racism.
New York: New York University Press, 2018.OBERMEYER, Z.; POWERS, B.; VOGELI, C.; MULLAINATHAN, S. Dissecting
racial bias in an algorithm used to manage the health of populations. Science,
v. 336, p. 447-453, 2019.O’NEIL, C. Weapons of math destruction. How big data increases inequality
and threatens democracy. New York: Crown, 2016.PEREIRA, G.; MORESCHI, B., MINTZ, A.; BEIGUELMAN, G. We’ve always
been antagonistic: algorithmic resistances and dissidences beyond the
Global North. Media International Australia, v. 183, n. 1, p. 124-138, 2022.PETRE, C.; DUFFY, B. E.; HUND, E. Gaming the System: platform paternalism and the politics of algorithmic visibility. Social Media + Society, v. 5,
n. 4, p. 1-12, 2019.RAMIZO, G. Platform playbook: a typology of consumer strategies against algorithmic control in digital platforms. Information, Communication &
Society, v. 25, n. 13, p. 1849-1864, 2022.RANCIÈRE, J. Dis-Agreement: politics and philosophy. Minneapolis: University
of Minnesota Press, 1999.ROSAS, R. Gambiarra: alguns pontos para se pensar uma tecnologia recombinante. Gambiarra, v. 1, n. 1, p. 19-26, 2008.RUSSELL, S. Human compatible: artificial intelligence and the problem of
control. New York: Viking, 2019.SAMUEL, A. L. Artificial intelligence: a frontier of automation. The Annals
of the American Academy of Political and Social Science, v. 340, n. 1, p.
10-20, 1962.SCHARRE, P. Army of none: autonomous weapons and the future of war. New
York: W.W. Norton & Company, 2018.SCOTT, J. C. Domination and the arts of resistance. New Heaven: Yale
University Press, 1990.SCOTT, J. C. Weapons of the weak: everyday forms of peasant resistance. New
Heaven: Yale University Press, 2008.SCOTT. W. R. Institutions and organizations: ideas, interests and identities.
Thousand Oaks: Sage, 2014.SHARABI, L. L. Finding love on a first data: Matching algorithms in online
dating. Harvard Data Science Review, v. 4, n. 1, p. 1-11, 2022.SHEEHEY, B. Algorithmic paranoia: the temporal governmentality of predictive policing. Ethics and Information Technology, v. 21, n. 1, p. 49-58, 2019.SHEPARDSON, D. Google ‘private browsing’ mode not really private, Texaslawsuit says. REUTERS, 19 maio 2022. Disponível em: Reuters. Acesso em: 20 jun. 2022.SIMON, H.A. The sciences of the artificial. Cambridge: MIT Press, 1996.SZULC, L. Digital gender disidentifications: beyond the subversion versus hegemony dichotomy and toward everyday gender practices. International
Journal of Communication, v. 14, n. 10, p. 5436-5454, 2020.TILLY, C. From mobilization to revolution. New York: McGraw-Hill, 1978.TILT. Como fãs de Anitta manipularam o algoritmo para levá-la ao topo do
Spotify. Uol, 12 abr. 2022. Disponível em: UOL Acesso em:
21 nov. 2022.VELKOVA, J., KAUN, A. algorithmic resistance: media practices and the politics of repair. Information, Communication & Society, v. 24, n. 4, p. 523–
540, 2021. Disponível em: doi.org/10.1080/1369118X.2019.1657162
Acesso em: 21 nov. 2022.WEST, S.M. Cryptography as information control. Social Studies of Science,
v. 52, n. 3, p. 353-375, 2022.ZUBOFF, S. The age of surveillance capitalism: the fight for human future at
the new frontier of power. New York: Public Affairs, 2019.#algoritmos #desidentificación #resistencia #scott