O artigo “How the Algorithm is Killing Personal Taste”, publicado pelo jornal The Times, propõe uma reflexão provocativa e extremamente relevante sobre os modos pelos quais a cultura algorítmica contemporânea tem moldado e, em certo sentido, atrofiado a autonomia estética dos sujeitos. A partir de uma análise crítica das estruturas de recomendação presentes em plataformas digitais — como Spotify, Netflix, TikTok e YouTube, o texto argumenta que os algoritmos não apenas facilitam o acesso ao conteúdo, mas também induzem e padronizam os gostos pessoais, limitando a diversidade cultural e afetando a construção subjetiva da identidade.
A relevância do artigo reside, sobretudo, em sua capacidade de articular uma crítica cultural aos sistemas técnicos que governam grande parte das interações digitais atuais. Em um cenário de economia da atenção, os algoritmos são desenhados para maximizar o engajamento, não a pluralidade estética ou cognitiva. Assim, conteúdos que “funcionam bem” (isto é, que retêm a atenção por mais tempo) tendem a ser priorizados, em detrimento de propostas mais ousadas, complexas ou fora dos padrões dominantes. O resultado é uma cultura digital marcada pela previsibilidade e pela repetição, na qual o “gosto pessoal” é, muitas vezes, uma ilusão cuidadosamente alimentada por sistemas opacos.
Letramento algorítmo
Essa crítica encontra ressonância direta com o campo do letramento algorítmico, área emergente na interseção entre educação digital, ciência de dados e estudos críticos da tecnologia. Como pesquisador com formação doutoral em letramento digital, compreendo que os desafios impostos pelos algoritmos não se restringem a questões técnicas, mas envolvem dimensões profundamente epistemológicas, éticas e políticas. A centralidade dos algoritmos na mediação do conhecimento exige uma nova alfabetização, que vá além do domínio instrumental das ferramentas e inclua a capacidade de compreender como os dados são coletados, processados, organizados e utilizados para moldar comportamentos, escolhas e percepções.
Nesse sentido, o conceito de letramento, tal como formulado por Magda Soares (2003), mostra-se particularmente útil. Para a autora, letramento não se resume à capacidade de decodificar signos, mas diz respeito às práticas sociais de uso da linguagem na construção do significado. Ao transpor essa noção para o ambiente digital contemporâneo, podemos compreender o letramento algorítmico como a capacidade de ler, interpretar e intervir criticamente nos processos algorítmicos que permeiam nossa vida cotidiana. Isso inclui entender o funcionamento dos algoritmos, mas também reconhecer seus efeitos sociais e culturais, suas assimetrias de poder e suas implicações para a democracia.
O artigo do The Times, embora não se aprofunde em uma abordagem pedagógica ou sociotécnica, fornece uma base empírica rica para se pensar tais questões. Ao identificar a padronização dos gostos como um efeito colateral da lógica algorítmica, o texto toca em um ponto central para os estudos do letramento digital crítico: a necessidade de preservar a autonomia subjetiva diante de sistemas automatizados que operam com base em padrões estatísticos e predição comportamental. O que está em jogo, nesse processo, é a própria ideia de formação estética como exercício de liberdade e experimentação.
A homogeneização cultural promovida pelos algoritmos é, portanto, não apenas um problema de mercado ou inovação tecnológica, mas um desafio educacional e democrático. Isso porque a formação do gosto está profundamente ligada à construção da identidade, da criatividade e da capacidade de imaginar outras possibilidades de mundo. Quando os algoritmos nos oferecem apenas aquilo que é semelhante ao que já consumimos, limitam o horizonte da experiência e empobrecem nossa relação com a alteridade. Como afirma Pierre Lévy (1999), a inteligência coletiva se constrói na diferença — e não na repetição.
Além disso, o texto contribui para desnaturalizar o discurso tecnoentusiasta que apresenta os algoritmos como neutros, objetivos ou “eficientes”. Como já demonstrado por autores como Safiya Noble (2018) e Cathy O’Neil (2016), os algoritmos são produtos humanos, carregados de valores, interesses e vieses. Ao moldarem os fluxos de informação, eles afetam o que é visível, acessível e reconhecido como legítimo. Isso tem implicações diretas sobre a diversidade cultural, a liberdade de expressão e o direito à informação — pilares centrais de qualquer sociedade democrática.
A partir dessa constatação, é possível (e necessário) propor caminhos formativos que fortaleçam a agência dos sujeitos frente ao poder algorítmico. O letramento algorítmico, nesse contexto, emerge como uma competência essencial do século XXI, articulando saberes técnicos, críticos e éticos. Isso implica, por exemplo, desenvolver currículos escolares que incluam o ensino de lógica algorítmica desde os anos iniciais, fomentar práticas de leitura crítica de plataformas digitais, e criar espaços de debate sobre o papel das tecnologias na vida social.
Capitalismo de Vigilância
Um ponto que poderia ser mais desenvolvido no artigo, no entanto, é a responsabilidade das plataformas e dos designers de sistemas. Ainda que o texto foque corretamente nos efeitos culturais da mediação algorítmica, pouco se fala sobre a regulação, a transparência dos modelos e a ética no design de sistemas. Como já apontado por Shoshana Zuboff (2019) em sua teoria do capitalismo de vigilância, é preciso ir além da crítica ao usuário e abordar os sistemas econômicos que sustentam essas tecnologias.
Por fim, a leitura do artigo reforça a necessidade de consolidar uma educação digital crítica, comprometida com a formação de sujeitos conscientes, criativos e politicamente engajados. Inspirado pela tradição do letramento como prática social, defendo que o letramento algorítmico deve ser compreendido como um direito fundamental, capaz de garantir não apenas o acesso à informação, mas a participação plena e informada na sociedade digital.
O artigo “How the Algorithm is Killing Personal Taste” nos oferece, portanto, uma poderosa metáfora do nosso tempo: a substituição da escolha autêntica pela recomendação previsível, do gosto cultivado pela personalização automatizada. Ao colocarmos em pauta os efeitos dos algoritmos sobre a subjetividade, abrimos espaço para imaginar uma cultura digital mais plural, justa e emancipada — na qual os algoritmos não sejam muros invisíveis, mas pontes para novas experiências.
Ivini Ferraz
vini Ferraz é mestre em Ciências pela USP com foco em sustentabilidade. Professora de Pós-graduação na área de ESG e especialista em Comunicação Transmidiática, Jornada do Cliente e Transformação Digital.
Ferraz também explora as diversas abordagens
Referências
SOARES, Magda. Letramento: um tema em três gêneros. Belo Horizonte: Autêntica, 2003.
LÉVY, Pierre. Cibercultura. São Paulo: Editora 34, 1999.
NOBLE, Safiya Umoja. Algorithms of Oppression: How Search Engines Reinforce Racism. New York: NYU Press, 2018.
O’NEIL, Cathy. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York: Crown Publishing, 2016.
ZUBOFF, Shoshana. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. New York: PublicAffairs, 2019.