Saiba como a Google desenvolve todo este trabalho no post oficial assinado por Ian Leader, Product Lead, User Generated Content.
Como são criadas e aplicadas as políticas da Google
Segundo o que conta a gigante das pesquisas, a empresa cria políticas de conteúdo rígidas para garantir que as críticas são baseadas em experiências do mundo real e para manter comentários irrelevantes e ofensivos fora dos perfis de empresas no Google.
À medida que o mundo evolui, também evoluem as nossas políticas e proteções. Isto ajuda-nos a proteger lugares e empresas de conteúdos que violem políticas e fora do âmbito do tópico quando há potencial para abusos. Por exemplo, quando governos e empresas começaram a exigir certificados de vacinação contra a COVID-19 para o acesso a determinados lugares, implementamos proteções extras para remover críticas no Google que criticam uma empresa pelas suas políticas de saúde e segurança ou por exigirem o certificado.
Uma vez escrita, a política transforma-se em material de treino – tanto para os operadores da Google como para os algoritmos de machine learning – para ajudar as equipas na deteção de conteúdo que viola a política e, por fim, manter as críticas do Google úteis e autênticas.
A moderação das críticas com a ajuda de machine learning
Assim que alguém publica uma crítica, ela é enviada para o sistema de moderação da empresa para garantir que a mesma não viola nenhuma das políticas. Poderá pensar no nosso sistema de moderação como uma espécie de segurança que impede que pessoas não autorizadas entrem num prédio – mas, em vez disso, a equipa da gigante das pesquisas está a impedir que um mau conteúdo seja publicado no Google.
Dado o volume de críticas que recebemos regularmente, a Google descobre que é necessário tanto de uma compreensão diferenciada que os humanos proporcionam como da escala oferecida pelas máquinas para nos ajudar a moderar o conteúdo recebido. Ambos têm pontos fortes diferentes e, por isso, a companhia continua a investir tremendamente em ambos.
As máquinas são a nossa primeira linha de defesa porque são boas para identificar padrões. Estes padrões ajudam, geralmente, as nossas máquinas a determinar imediatamente se o conteúdo é legítimo, e a grande maioria do conteúdo falso e fraudulento é removido antes que alguém realmente o veja.
As máquinas da Google analisam as críticas de vários ângulos, tais como:
-
O conteúdo da crítica: ela contém conteúdo ofensivo ou fora do tópico?
-
A conta que deixou a crítica: a conta Google tem algum histórico de comportamento suspeito?
-
O lugar em si: houve atividade incomum – como uma abundância de críticas num curto período de tempo? Recentemente, teve a atenção das notícias ou redes sociais que motivariam as pessoas a deixar comentários fraudulentos?
Treinar uma máquina sobre a diferença entre conteúdo aceitável e aquele que viola as políticas é um equilíbrio delicado. Por exemplo, por vezes a palavra “gay” é usada como um termo depreciativo, e isso não é algo que toleramos nas críticas no Google. Mas se ensinarmos aos nossos modelos de machine learning que ele é usado apenas em discurso de ódio, podemos remover erradamente críticas que promovem um empresário gay ou um espaço seguro LGBTQ+. Os nossos operadores humanos executam regularmente testes de qualidade e completam treino adicional para remover o preconceito dos modelos de machine learning.
Ao treinar minuciosamente os seus de todas as maneiras como certas palavras ou frases são usadas, a empresa melhora a sua capacidade de detetar conteúdo que viole políticas e reduzimos a probabilidade de bloquear inadvertidamente uma publicação com críticas legítimas.
Se os sistemas não detetarem violações de políticas, a crítica poderá ser publicada numa questão de segundos. Mas o trabalho das equipas Google não termina quando a crítica é publicada. Os sistemas continuam a analisar o conteúdo contribuído e a observar padrões questionáveis.
Estes padrões podem ser qualquer coisa, desde um grupo de pessoas que deixam comentários no mesmo grupo de perfis de empresas até uma empresa ou local que recebe um número invulgarmente alto de críticas de 1 ou 5 estrelas num curto período de tempo.
Mantendo as críticas autênticas e confiáveis
Como qualquer outra plataforma que aceita contribuições de utilizadores, a Google também precisa de estar atenta aos esforços para evitar que fraudes e abusos apareçam no Maps. Parte disso passa por tornar mais fácil para as pessoas que usam o Google Maps sinalizar qualquer crítica que viole as políticas. Se acha que viu uma crítica que viola políticas do Google, recomendamos que a denuncie à equipa da Google. As empresas podem sinalizar aqui críticas nos seus perfis e os consumidores aqui.
A equipa de operadores humanos trabalha 24 horas por dia para rever o conteúdo sinalizado. Quando são encontrados comentários que violam as políticas, estes são removidos do Google e, em alguns casos, a conta do utilizador é suspensa. Aliás, podem mesmo avançar um processo judicial contra o prevaricador.
Além de analisar o conteúdo sinalizado, a equipa por trás deste serviço trabalha proativamente para identificar possíveis riscos de abuso, o que reduz a probabilidade de ataques de abuso bem-sucedidos. Por exemplo, quando se aproxima um evento com um número significativo de seguidores, como uma eleição, são implementadas proteções elevadas para os locais associados ao evento e outras empresas próximas que as pessoas podem procurar no Maps.
Refere a gigante americana que continua a monitorizar estes locais e empresas até que o risco de abuso diminua de modo a apoiar a missão de publicar apenas críticas autênticas e confiáveis. O investimento em analisar e entender como o conteúdo que recebe pode ser alvo de abuso tem sido fundamental para manter a Google um passo à frente dos chamados maus atores.
Com mais de mil milhões de pessoas a recorrer ao Google Maps todos os meses para navegar e explorar, a intenção da empresa garantir que as informações que os utilizadores veem, especialmente as críticas, são confiáveis para todos. Segundo referem, o trabalho nunca termina; estão constantemente a melhorar o sistema e a trabalhar arduamente para manter os abusos, incluindo críticas falsas, fora do mapa.
Comentários recentes