João Pessoa, 18 de novembro de 2025 | --ºC / --ºC
Dólar - Euro


Pausou três segundos num anúncio de terapia? Rolou o feed até o vídeo de meditação às 2h da manhã? O algoritmo anotou. Não é coincidência o TikTok te mostrar mais conteúdos de “como lidar com ansiedade” no dia seguinte. O MIT Media Lab publicou em 2023 um estudo que assusta: plataformas preveem seu humor com 87% de precisão só pelos micro-gestos ,tempo de pausa, velocidade do scroll, até o jeito que você segura o celular. Seu smartphone não é seu. É um espião com Wi-Fi e bateria infinita.
Shoshana Zuboff Acordou o Mundo com um Grito
A professora emérita de Harvard escreveu “A Era do Capitalismo de Vigilância” e vendeu mais de 1 milhão de cópias porque disse o que ninguém queria ouvir: seus dados emocionais viram produto. Facebook, Google, TikTok faturam com seus cliques. Seu estresse, sua insegurança, sua busca por “como ser feliz” são leiloados em milésimos de segundo. Zuboff chama isso de “mercado de futuros comportamentais”. Traduzindo: apostam no que você vai fazer antes de você decidir.
Você já tentou sair do Instagram e voltou “só pra ver uma coisa”? Não é força de vontade fraca. É design. Um estudo da Princeton (2024) mapeou 1.200 “dark patterns” em apps populares – notificações vermelhas, autoplay, stories que somem em 24h. Tudo pra te manter ali. Resultado? Pew Research (2025) mostra que 71% dos jovens entre 18 e 29 anos relatam “medo de desconectar”. Não é exagero: é dependência química digital. A dopamina agradece.
A Vigilância Emocional Tem Nome: Microtargeting
Imagine um político que sabe que você brigou com o namorado na terça-feira. Ele te manda um anúncio de “família tradicional” na quarta. Aconteceu nas eleições de 2024 no Brasil – Cambridge Analytica 2.0, agora com IA generativa. Empresas de marketing pagam fortunas por “perfis psicológicos” construídos a partir de likes antigos. Você não escolheu ser analisado. Só aceitou os termos de uso em 0,3 segundos.
O Corpo Fala Mais que a Boca
Sensores de smartwatch medem batimento cardíaco. Câmeras frontais captam dilatação de pupila. Um paper da Stanford (2025) mostrou que algoritmos de visão computacional identificam depressão com 82% de precisão só pela expressão facial em videochamadas. Empresas de RH já testam isso em entrevistas remotas. “Candidato estressado, risco alto”. Você nem abriu a boca. A máquina já te rotulou.
Não é só trocar app. É mudar comportamento. Desative rastreamento cruzado. Use VPN. Bloqueie cookies de terceiros. Parece chato? É. Mas é o preço de ter de volta o que é seu: sua atenção, sua privacidade, sua sanidade.
Imagine 2027. A IA sabe mais sobre você que sua mãe. Previu sua crise existencial, vendeu remédio, sugeriu terapeuta, cobrou consulta. Tudo sem você pedir. Soa conveniente? É prisão dourada. A única saída é coletiva: leis mais duras (a LGPD é um bom começo, mas falta dente), empresas que pagam por dados em vez de roubar, consumidores que boicotam quem não respeita. Não é utopia. É escolha.
O Algoritmo Não Lê Pensamentos, Ainda. Ele lê padrões. E padrões viram previsões. Previsões viram manipulação. Manipulação vira lucro. O ciclo só para quando você para. Quando você pergunta: “Quem decide o que eu vejo? Eu ou uma empresa que nunca me viu na vida?”. A resposta está no seu dedo. Deslize com intenção. Ou deixe que deslizem por você.
Maria Augusta Ribeiro é especialista em comportamento digital e Netnografia no Belicosa.com.br
* Os textos dos colunistas e blogueiros não refletem, necessariamente, a opinião do Portal MaisPB
VIOLÊNCIA - 14/11/2025





