Eventbrite

Central de Ajuda

Como a Eventbrite personaliza e modera conteúdo

Última atualização: 1 de fevereiro de 2024. A missão da Eventbrite é reunir pessoas através das suas experiências. Nós estamos profundamente comprometidos em criar um marketplace no qual criadores e consumidores confiem, para proporcionar experiências seguras e inclusivas. Neste artigo, compartilhamos mais sobre como mantemos seguro nosso marketplace on-line, incluindo como personalizamos e moderamos conteúdo em nossa plataforma.

Neste artigo

  • Como personalizamos conteúdo
  • Como moderamos conteúdo
  • Como detectamos violações de conteúdo
  • Como analisamos o conteúdo

Como personalizamos conteúdo

Para ajudar você a descobrir as experiências mais relevantes no marketplace da Eventbrite, usamos os dados que temos sobre você para priorizar os eventos que lhe apresentamos. Alguns indicadores que usamos para personalizar a sua experiência ao visualizar o site do evento e anúncios incluem conteúdo que você visualizou, clicou, curtiu, seguiu ou pesquisou e informações que você fornece ao responder uma de nossas pesquisas ou se inscrever ou comprar ingressos para um evento. Você pode saber mais sobre como usamos e protegemos seus dados em nossa Política de Privacidade

Como moderamos conteúdo

A moderação de conteúdo é o processo pelo qual uma plataforma analisa e atua sobre conteúdo que é ilegal, inapropriado ou nocivo. Nossas Diretrizes Comunitárias oferecem transparência sobre como mantemos nossa comunidade protegida. Elas servem também como barreiras de proteção para quais tipos de conteúdo são estimulados e quais tipos ameaçam a integridade de nossa plataforma e são proibidos. Para combater abuso na plataforma, contamos com uma combinação de ferramentas e processos, incluindo detecção proativa por meio de tecnologia de aprendizagem de máquina e sistemas baseados em regras, detecção reativa por meio de denúncias da nossa comunidade e relatórios.

Como detectamos violações de conteúdo

Detecção proativa

Detectamos proativamente uma parte significativa de violações de conteúdo por meio de dois métodos principais: (1) sistemas com base em regras (ou seja, regras construídas para identificar conteúdo que atenda a critérios específicos, e (2) tecnologia de aprendizagem de máquina (ou seja, um processo estatístico no qual treinamos um modelo para reconhecer certos tipos de padrões baseado em exemplos anteriores e fazer previsões sobre dados novos). 

Sistemas baseados em regras são efetivos quando há poucos critérios simples indicando risco alto. A tecnologia de aprendizado de máquina utiliza sinais múltiplos e é, portanto, mais efetiva quando há padrões complexos indicando risco alto. As duas estratégias de detecção são validadas por análise off-line e monitoradas para oportunidades de melhorias contínuas.

Detecção reativa

Além dos métodos proativos descritos acima, nossa comunidade tem um papel importante em comunicar conteúdo que parece ser nocivo, seja Entrando em contato conosco ou usando o link Denuncie este evento presente em cada rodapé de evento. Embora desejemos remover proativamente conteúdo nocivo antes que alguém o veja, esta linha aberta de comunicação com nossa comunidade é uma parte fundamental do nosso programa de moderação de conteúdo. 

Como analisamos o conteúdo

Embora a automação seja fundamental para nossa capacidade de escalar nosso programa de moderação de conteúdo, ainda há áreas em que a análise humana é, e pode ser sempre, necessária. Por exemplo, discernir se um indivíduo é o alvo de bullying pode ter nuances e ser baseado em contexto. 

Quando nossa equipe analisa conteúdos, eis o que acontece:

  • Análise: nossa equipe analisa o conteúdo e decide se ele viola nossas políticas ou se é ilegal. Dependendo dos detalhes do caso, nossa equipe pode analisar somente o conteúdo denunciado ou a conta de modo mais holístico. 

  • Obter informações (se necessário): se a equipe não conseguir determinar se o conteúdo viola nossas políticas, ela pode buscar informações adicionais das partes relevantes (como o titular da conta ou o indivíduo que denunciou o conteúdo).

  • Ação: se o conteúdo for considerado como violando nossas políticas, a equipe agirá adequadamente, incluindo excluir o conteúdo dos resultados de busca, remover o conteúdo do site do evento, cancelar a publicação do site do evento no marketplace e/ou suspender ou encerrar o acesso da conta.

  • Comunicação: uma vez solucionado, a equipe informará as partes relevantes sobre as ações tomadas e o motivo. Os usuários impactados podem responder a essa comunicação para buscar um apelo da decisão. 

Nossa prioridade é remover conteúdo nocivo rapidamente e com a menor perturbação à nossa comunidade. Ao usar uma combinação de detecção proativa e reativa, e adicionando uma camada de análise humana de conteúdo escalonado quando necessário, podemos detectar rapidamente e atuar de forma adequada sobre os conteúdos.

Na medida em que o mundo ao nosso redor evolui, os meios pelos quais moderamos conteúdo também devem evoluir. Constantemente atualizamos nosso programa em antecipação a, ou em resposta a novos comportamentos, tendências e ameaças percebidas à integridade do marketplace da Eventbrite.

Ainda tem dúvidas?