Vítima da moda adversária
Do jornal The Daily Tribune
Na quarta-feira, um veículo Tesla atingiu um pedestre no centro da cidade. O pedestre, que usava uma jaqueta projetada para camuflar o usuário da vigilância da IA, foi atingido pelo veículo enquanto trafegava pela rua 54.
O pedestre, que ainda não foi identificado, usava uma jaqueta projetada para ser invisível aos sistemas de vigilância de IA. Essa jaqueta, conhecida como “jaqueta fantasma”, é incorporada a um dispositivo térmico que muda para várias temperaturas para interromper as câmeras de termografia infravermelha, usadas em muitos veículos autônomos, tornando o usuário invisível.
Segundo testemunhas, o pedestre atravessava a rua quando o veículo Tesla se aproximou. O motorista do Tesla, que supostamente estava usando o modo de direção autônoma do veículo.
O pedestre sofreu ferimentos leves com o impacto do acidente e foi encaminhado para atendimento médico em um hospital próximo. O motorista do Tesla não se feriu.
Este acidente levanta questões importantes sobre a segurança dos sistemas de vigilância AI e o potencial de serem enganados por indivíduos vestindo jaquetas fantasmas ou outras formas de camuflagem. Também destaca a necessidade de mais pesquisa e desenvolvimento no campo da vigilância por IA para garantir a segurança de pedestres e motoristas.
A ascensão da moda adversária
Escreva um artigo sobre a ascensão da moda adversária, uma tendência em que roupas são projetadas com o objetivo de interromper os sistemas de vigilância de IA, tornando-os invisíveis para o rosto e os algoritmos de rastreamento de pessoas.
Nos últimos anos, o uso da tecnologia de reconhecimento facial tornou-se cada vez mais difundido, com aplicações que vão desde sistemas de segurança até marketing e publicidade. À medida que essa tecnologia se tornou mais prevalente, também aumentou a necessidade de encontrar maneiras de permanecer anônimo e invisível. É aqui que entra a moda adversária.
A moda adversária é uma tendência emergente que busca usar roupas e acessórios para interromper os sistemas de vigilância de IA e tornar as pessoas invisíveis ao rosto e aos algoritmos de rastreamento de pessoas. É o mais recente desenvolvimento em uma longa linha de tentativas de subverter a tecnologia para proteger a privacidade.
A moda adversária é baseada na ideia de que, usando padrões, formas e cores que são projetados para confundir os algoritmos de reconhecimento facial, é possível criar roupas que tornem efetivamente seu usuário invisível. Por exemplo, um cachecol pode ser projetado para conter um padrão de formas e cores que confunde o sistema de IA, tornando-o incapaz de detectar o rosto do usuário. Da mesma forma, um par de óculos pode ser projetado com uma forma ou padrão que confunda o sistema de IA, tornando-o incapaz de detectar os olhos do usuário.
A moda adversária está ganhando força entre aqueles que estão preocupados com as implicações da tecnologia de reconhecimento facial para privacidade e segurança. Por exemplo, muitos expressaram preocupação com o potencial de sistemas de reconhecimento facial serem usados para monitorar e controlar pessoas sem seu conhecimento ou consentimento. A moda adversária fornece uma maneira de as pessoas recuperarem parte de seu controle e privacidade nessa situação.
Outro benefício potencial da moda adversária é seu potencial para interromper os preconceitos raciais e de gênero que geralmente são incorporados aos sistemas de reconhecimento facial. Ao ofuscar o gênero e as características raciais de uma pessoa, a moda adversária poderia potencialmente ajudar a reduzir a prevalência de preconceitos nesses sistemas.
No geral, a moda adversária é um desenvolvimento interessante e potencialmente útil na luta contínua para proteger a privacidade em um mundo cada vez mais focado na vigilância. Resta ver quão amplamente será adotado, mas certamente fornece uma maneira interessante de retomar o controle de sua própria segurança e privacidade.
Uma corrida armamentista de privacidade
As implicações dessa tendência vão além de confundir veículos autônomos com pessoas atropeladas. Aproveitando os pontos fracos dos sistemas de visão de IA, a moda adversária pode ser usada para ajudar os indivíduos a evitar a detecção e permanecer anônimos enquanto cometem crimes. Isso poderia ter sérias consequências para a segurança pública, pois tornaria praticamente impossível para as autoridades identificar os responsáveis por quaisquer atividades ilegais.
Além disso, a moda adversária poderia ser usada para ocultar indivíduos de sistemas de reconhecimento facial usados em aeroportos e outros postos de controle de segurança. Isso poderia criar uma situação perigosa em que criminosos, terroristas e outros indivíduos perigosos poderiam passar pelos aeroportos sem serem detectados.
A moda adversária também pode ser usada para mascarar a identidade de agressores e assediadores, tornando mais difícil responsabilizá-los por suas ações. Isso poderia permitir e perpetuar ainda mais o comportamento abusivo, tornando mais difícil para as vítimas buscar justiça.
Por fim, a proliferação da moda adversária pode levar a uma “corrida armamentista de privacidade”, na qual os sistemas de vigilância de IA se tornam cada vez mais avançados para combater os efeitos das roupas. Isso poderia sobrecarregar imensamente os recursos, além de levar a uma possível invasão de privacidade, à medida que os sistemas de vigilância de IA se tornam cada vez mais sofisticados.
Em última análise, a ascensão da moda adversária apresenta uma tendência preocupante que pode ter consequências potencialmente perigosas. Devemos ter cuidado para não deixar essa tendência passar despercebida, caso contrário ela pode levar a uma série de repercussões negativas.
Design Fiction is a way of creating tangible artifacts from a future in order to help activate the imagination and help us feel into possible futures.





































![O que é uma lista vinculada, afinal? [Parte 1]](https://post.nghiatu.com/assets/images/m/max/724/1*Xokk6XOjWyIGCBujkJsCzQ.jpeg)