Voz de Guarulhos
  • Home
  • Emprego
  • Entretenimento
  • Esporte
  • Pet
  • Política
  • Saúde
  • Segurança
  • Jornal ImpressoHOT
Voz de Guarulhos
quinta-feira, abril 23, 2026
  • Home
  • Emprego
  • Entretenimento
  • Esporte
  • Pet
  • Política
  • Saúde
  • Segurança
  • Jornal ImpressoHOT
Voz de Guarulhos
Voz de Guarulhos
  • Home
  • Emprego
  • Entretenimento
  • Esporte
  • Pet
  • Política
  • Saúde
  • Segurança
  • Jornal Impresso
@2023 Voz de Guarulhos
Tag:

VALE DO SILÍCIO

Tecnologia

A corrida das big techs: os 12 meses que mudaram para sempre o Vale do Silício

por Redação 26 de dezembro de 2023

Às 13h de uma sexta-feira, pouco antes do Natal do ano passado, Kent Walker, o principal advogado do Google, reuniu quatro de seus colaboradores e acabou com o fim de semana deles.

O grupo trabalhava no SL1001, prédio sem graça com fachada de vidro azul que em nada sugeria que havia dezenas de advogados lá dentro para proteger os interesses de uma das empresas mais influentes do mundo. Durante semanas, eles se prepararam para uma reunião de executivos poderosos destinada a discutir a segurança dos produtos do Google. Estava tudo pronto. Mas, naquela tarde, Walker informou à equipe que a agenda havia mudado e que eles teriam de passar os próximos dias preparando novos slides e gráficos.

De fato, toda a programação da empresa foi alterada em apenas nove dias. Sundar Pichai, CEO do Google, decidiu preparar uma lista de produtos baseados em inteligência artificial (IA) — imediatamente.

Para isso, recorreu a Walker, o mesmo advogado encarregado de defender a empresa em um processo antitruste que ameaçava seus lucros em Washington, D.C. Ele sabia que precisaria persuadir o Conselho de Revisão de Tecnologia Avançada (ATRC, na sigla em inglês), grupo de executivos, a abandonar sua habitual cautela e cumprir o que lhe era solicitado.

Era um decreto, algo não muito comum no Google.

O que provocou a reação de Pichai foi o ChatGPT, programa de IA lançado em 30 de novembro de 2022 por uma empresa emergente chamada OpenAI. O programa cativou a imaginação de milhões de pessoas que antes viam a IA como ficção científica, até começarem a interagir com ela.

O Google estava desenvolvendo uma tecnologia própria de IA, que executava muitas das mesmas funções. Pichai estava particularmente interessado nas falhas do ChatGPT, como sua interpretação equivocada das informações que, por vezes, resultava em respostas tendenciosas. O que o surpreendeu foi que a OpenAI havia lançado o produto mesmo assim e que os consumidores o adoraram. Se a OpenAI podia fazer isso, por que não o Google?

Para os líderes de empresas de tecnologia, a escolha de quando e como transformar a IA em um empreendimento com potencial de lucro era um cálculo mais direto de risco e recompensa. Contudo, para alcançar o sucesso, era preciso ter um produto.

Na manhã de segunda-feira, 12 de dezembro, a equipe do SL1001 recebeu uma nova pauta, identificada como “Privilegiada e confidencial/somente pessoal autorizado”. A maioria dos participantes se conectou à reunião por videoconferência. Walker abriu o encontro anunciando que o Google lançaria um chatbot e recursos de IA que seriam adicionados à nuvem, à pesquisa e a outros produtos. “Quais são suas preocupações? Precisamos nos alinhar”, disse Walker, conforme relatado por Jen Gennai, diretora de inovação responsável.

Finalmente, um consenso foi alcançado. O lançamento seria restrito, afirmou Gennai. E evitariam rotular qualquer coisa como um produto. Para o Google, seria considerado um experimento, o que significava que não precisava ser perfeito (um porta-voz do Google esclareceu que o ATRC não tinha autoridade para determinar como os produtos seriam lançados).

O que houve no Google se repetiu em outras gigantes da tecnologia depois que a OpenAI lançou o ChatGPT, no fim de 2022. Todas elas possuíam uma tecnologia baseada em redes neurais em vários estágios de desenvolvimento — sistemas de IA que reconheciam sons, geravam imagens e conversavam como um ser humano. O pioneiro dessa tecnologia foi Geoffrey Hinton, acadêmico que havia trabalhado brevemente com a Microsoft e agora estava no Google. No entanto, as empresas de tecnologia foram contidas por temores de chatbots fraudulentos, além da possibilidade de problemas econômicos e legais.

Quando o ChatGPT foi lançado, tudo isso se tornou secundário, segundo entrevistas com mais de 80 executivos e pesquisadores, além de documentos corporativos e gravações de áudio. Prevaleceu o instinto de ser o primeiro, o maior ou o mais rico — ou todos os três. Os líderes das maiores empresas do Vale do Silício traçaram um novo rumo e levaram os funcionários nessa direção.

Em um período de 12 meses, o Vale do Silício experimentou uma transformação radical. A prioridade passou a ser a conversão da inteligência artificial em produtos reais, que pudessem ser usados por indivíduos e empresas.

As preocupações com a segurança e com o potencial de as máquinas se rebelarem contra seus criadores não foram descartadas, mas foram temporariamente postas em segundo plano. “A velocidade é agora mais crucial do que nunca. Preocupar-se com questões que podem ser abordadas mais tarde seria um equívoco fatal neste momento”, escreveu Sam Schillace, alto executivo, aos colaboradores da Microsoft.

No início de novembro de 2022, poucos na OpenAI davam atenção ao ChatGPT, porque, um mês antes de ser lançado globalmente, ele ainda não existia como um produto concreto. A maior parte dos 375 funcionários estava focada em uma versão mais avançada da tecnologia, conhecida como GPT-4, capaz de responder a praticamente qualquer pergunta, utilizando informações obtidas de uma vasta coleção de dados provenientes de uma ampla gama de fontes.

Em meados de novembro de 2022, Sam Altman, CEO da OpenAI, Greg Brockman, o presidente, e outros membros da equipe se reuniram em uma sala no último andar para discutir mais uma vez os desafios de sua tecnologia inovadora. Subitamente, Altman optou por lançar a tecnologia mais antiga e menos potente.

Em 29 de novembro, véspera do lançamento, Brockman chamou a equipe para um drinque. Ele contou que não achava que o ChatGPT atrairia muita atenção, prevendo que o lançamento não renderia mais do que um tuíte com 5.000 curtidas.

Mas Brockman estava enganado. Na manhã de 30 de novembro, Altman tuitou sobre o novo produto da OpenAI, e a empresa fez uma postagem repleta de termos técnicos em seu blog. Foi então que o ChatGPT decolou. As inscrições sobrecarregaram os servidores da empresa quase que imediatamente. Engenheiros entravam e saíam apressadamente de um espaço bagunçado perto da cozinha do escritório, reunindo-se em torno de laptops para extrair a capacidade de computação de outros projetos. Em cinco dias, mais de 1 milhão de pessoas adotaram o ChatGPT. Dentro de poucas semanas, esse número atingiu a marca de 100 milhões.

Embora ninguém soubesse ao certo o motivo, o programa era uma sensação. Os noticiários tentaram explicar seu funcionamento, e até mesmo um humorístico noturno o usou para criar piadas (mais ou menos engraçadas).

A Meta muda a direção
A mente de Mark Zuckerberg estava em outro lugar. Ao longo do ano, ele direcionava a empresa para o metaverso e estava imerso na exploração da realidade virtual e aumentada.

Mas o ChatGPT demandava sua atenção. Seu principal cientista de IA, Yann LeCun, veio de Nova York para a área da baía de San Francisco cerca de seis semanas depois para uma reunião de rotina na Meta, de acordo com uma fonte familiarizada com o encontro.

Em Paris, os cientistas de LeCun conceberam um bot impulsionado por IA, que pretendiam lançar como tecnologia de código aberto, o que significava que qualquer pessoa teria acesso e poderia modificar o programa. Deram-lhe o nome de Genesis. Contudo, quando solicitaram permissão para disponibilizá-lo, as equipes jurídica e de políticas da Meta recuaram, conforme relatado por cinco fontes a par do assunto.

No início de 2023, o dilema entre prudência e celeridade se intensificou, enquanto Zuckerberg pensava no rumo da Meta depois do ChatGPT.

Ele queria lançar um projeto rapidamente. O nome Genesis foi substituído por LLaMA, abreviação de “Large Language Model Meta AI”, e foi disponibilizado para 4.000 pesquisadores de fora da empresa. Rapidamente, a Meta recebeu mais de 100 mil solicitações de acesso ao código.

Mas, poucos dias depois do lançamento do LLaMA, alguém divulgou o código no 4chan, o fórum de mensagens online. A Meta perdeu o controle sobre seu chatbot, aumentando a possibilidade de que os piores receios de suas equipes jurídica e de políticas se tornassem realidade. Pesquisadores da Universidade Stanford demonstraram que o sistema da Meta poderia facilmente gerar material de teor racista.

Em 6 de junho, Zuckerberg recebeu dos senadores Josh Hawley e Richard Blumental uma carta que abordava a questão do LLaMA. “Hawley e Blumental exigem respostas da Meta”, anunciava um comunicado à imprensa.

A correspondência caracterizava o produto da Meta como arriscado e suscetível a abusos, estabelecendo comparações desfavoráveis com o ChatGPT. Ficava evidente que os senadores buscavam esclarecimentos sobre por que a abordagem da Meta não se assemelhava mais à adotada pela OpenAI.

Decisões estratégicas na Microsoft
No fim do verão setentrional de 2022, os escritórios da Microsoft ainda não tinham voltado à sua agitação pré-pandêmica. Mas, em 13 de setembro, Satya Nadella convocou seus altos executivos para uma reunião no Edifício 34, o epicentro das decisões estratégicas da Microsoft. Dois meses depois, Altman tomou a decisão de lançar o ChatGPT.

Nadella comunicou a seus comandados que uma mudança significativa estava prestes a ser concretizada. Em uma rara ordem executiva de um líder conhecido por favorecer o consenso, afirmou: “Estamos alinhando toda a empresa a essa tecnologia. É um avanço fundamental na história da computação, e estaremos na vanguarda dessa revolução”, recordou Eric Horvitz, o cientista-chefe.

No entanto, era imperativo manter tudo em sigilo por algum tempo. Três “projetos secretos” foram iniciados no início de outubro para impulsionar essa significativa mudança de direção. Esses projetos se concentraram em segurança cibernética, no mecanismo de busca Bing, no Microsoft Word e em softwares correlatos.

Em 7 de fevereiro, a Microsoft convidou jornalistas para seu campus em Redmond, Washington, com o objetivo de apresentar ao mundo um chatbot integrado ao Bing. A imprensa recebeu instruções para não divulgar que estava indo a um evento da Microsoft, e o tópico permaneceu em segredo.

De alguma maneira, porém, o Google ficou sabendo. Em 6 de fevereiro, antecipando-se à Microsoft, Pichai publicou uma postagem no blog anunciando que o Google lançaria um chatbot próprio, o Bard. A postagem não especificava exatamente quando seria isso.

Na manhã de 8 de fevereiro, um dia depois do anúncio do chatbot pela Microsoft, suas ações subiram 5%. Mas, para o Google, o anúncio precipitado se transformou em constrangimento. Pesquisadores identificaram erros na postagem do blog do Google.

Um GIF que a acompanhava simulava Bard dizendo que o telescópio Webb havia capturado as primeiras imagens de um exoplaneta, um planeta fora do Sistema Solar. Na realidade, um telescópio do Observatório Europeu do Sul, no norte do Chile, obteve a primeira imagem de um exoplaneta em 2004. Bard errou, e o Google enfrentou críticas na mídia e nas redes sociais.

Como disse Pichai mais tarde em uma entrevista, isso foi “lamentável”. As ações do Google registraram uma queda de quase 8%, resultando em uma perda de mais de US$ 100 bilhões.

Hinton, o cientista mais renomado do Google, sempre ridicularizou os fatalistas, racionalistas e altruístas que temiam que a inteligência artificial pudesse encerrar a humanidade em um futuro próximo. Contribuiu significativamente para o desenvolvimento da ciência por trás da inteligência artificial durante seu tempo como professor na Universidade de Toronto e enriqueceu ao ingressar no Google, em 2013. É frequentemente chamado de padrinho da IA.

No entanto, os novos chatbots alteraram completamente sua perspectiva. A evolução da ciência superou suas expectativas. O lançamento do chatbot da Microsoft o convenceu de que o Google não teria alternativa senão tentar recuperar o terreno perdido. A competição acirrada que se desenhava entre os gigantes da tecnologia parecia arriscada.

“Se considerarmos o Google uma empresa cujo objetivo é obter lucros, ele não pode simplesmente permitir que o Bing substitua as buscas do Google. Precisa entrar na disputa. O momento em que a Microsoft optou por lançar um chatbot como interface para o Bing marcou o fim do período de tranquilidade”, afirmou Hinton em abril.

Pela primeira vez em mais de 50 anos, ele se desvinculou da pesquisa. Então, em abril, fez uma ligação para Pichai e se demitiu.

c. 2023 The New York Times Company

0 FacebookTwitterLinkedinWhatsappTelegramEmail
Mundo

Especialistas correm para evitar a criação de pornografia infantil por inteligência artificial

por Redação 3 de julho de 2023

Dave Willner teve um lugar de destaque na evolução das piores coisas na internet. Começou a trabalhar no Facebook em 2008, quando as empresas de mídia social iam criando suas regras à medida que avançavam.

Como chefe de política de conteúdo da empresa, foi ele quem, há mais de uma década, redigiu os primeiros padrões oficiais da comunidade do Facebook, transformando o que, segundo ele, era uma lista informal de uma página, que se resumia principalmente a uma proibição de “Hitler e pessoas nuas”, no que agora é um catálogo extenso de insultos, crimes e outras coisas grotescas que são banidas em todas as plataformas da Meta.

Assim, no ano passado, quando o laboratório de inteligência artificial OpenAI, de San Francisco, se preparava para lançar o Dall-E, ferramenta que permite a qualquer pessoa criar instantaneamente uma imagem descrevendo-a em poucas palavras, a empresa escolheu Willner para ser seu chefe de confiabilidade e segurança. Inicialmente, isso significava vasculhar todas as imagens e prompts que os filtros da Dall-E sinalizavam como possíveis violações — e descobrir maneiras de evitar que os infratores tivessem sucesso.

Não demorou muito para que Willner considerasse uma ameaça conhecida. Assim como os predadores de crianças usaram durante anos o Facebook e outras grandes plataformas de tecnologia para divulgar imagens de abuso sexual infantil, eles agora tentavam usar o Dall-E para criar imagens totalmente novas. “Não me surpreendeu que tentassem fazer isso. E o pessoal da OpenAI também não ficou surpreso”, disse ele.

Apesar de toda a conversa recente sobre os hipotéticos riscos existenciais da inteligência artificial (IA) generativa, os especialistas dizem que é essa ameaça imediata — os predadores de crianças que já estão usando novas ferramentas de IA — que merece a atenção exclusiva da indústria.

Em um artigo recém-publicado pelo Observatório da Internet de Stanford e pela Thorn, organização sem fins lucrativos que luta contra a disseminação do abuso sexual infantil online, os pesquisadores descobriram que, desde agosto passado, houve um pequeno, mas significativo, aumento na quantidade de material fotorrealista de abuso sexual infantil gerado por IA circulando na dark web.

De acordo com os pesquisadores da Thorn, isso se manifestou sobretudo em imagens que usam a semelhança com vítimas reais, mas as mostram em novas poses, sendo submetidas a novas e cada vez mais flagrantes formas de violência sexual. A maioria dessas imagens foi gerada não pelo Dall-E, mas por ferramentas de código aberto desenvolvidas e lançadas com poucas proteções em vigor, descobriram os pesquisadores.

Em seu artigo, eles afirmaram que menos de 1% do material de abuso sexual infantil encontrado em uma amostra de comunidades predatórias conhecidas parecia ser imagens fotorrealistas geradas por IA. Mas, dado o ritmo vertiginoso de desenvolvimento dessas ferramentas generativas, os pesquisadores preveem que esse número só vá crescer.

“Dentro de um ano, vamos chegar a um estado problemático nessa área. Para mim, esse é absolutamente o pior cenário da aprendizagem de máquina”, afirmou David Thiel, técnico-chefe do Observatório de Stanford, que coescreveu o artigo com a diretora de ciência de dados da Thorn, Rebecca Portnoff, e a chefe de pesquisa da Thorn, Melissa Stroebel.

‘Confiamos nas pessoas’
Em 2003, o Congresso aprovou uma lei que proíbe a “pornografia infantil gerada por computador” — exemplo raro de preparação para o futuro. Mas, na época, a criação dessas imagens era proibitivamente cara e tecnicamente complexa.

O custo e a complexidade dessa criação têm diminuído constantemente, mas mudaram em agosto passado com a estreia pública do Stable Diffusion, gerador gratuito de texto para imagem de código aberto desenvolvido pela Stability AI, empresa de aprendizagem de máquina sediada em Londres.

Em sua primeira iteração, a Stable Diffusion impunha poucos limites às imagens que seu modelo poderia produzir, incluindo aquelas que continham nudez. “Confiamos nas pessoas e na comunidade”, declarou o presidente-executivo da empresa, Emad Mostaque, ao The New York Times no fim do ano passado.

Motez Bishara, diretor de comunicações da Stability AI, disse em comunicado que a empresa proibiu o uso indevido de sua tecnologia para fins “ilegais ou imorais”, incluindo a criação de material de abuso sexual infantil: “Apoiamos fortemente os esforços de aplicação da lei contra aqueles que usam indevidamente nossos produtos para fins ilegais ou nefastos.”

Como o modelo é de código aberto, os desenvolvedores podem baixar e modificar o código no próprio computador e usá-lo para gerar, entre outras coisas, pornografia adulta realista. Em seu artigo, os pesquisadores da Thorn e de Stanford descobriram que os predadores ajustaram esses modelos para também poder criar imagens sexualmente explícitas de crianças.

Os pesquisadores demonstram uma versão higienizada disso no relatório, modificando uma imagem gerada por IA de uma mulher até parecer uma imagem de Audrey Hepburn quando criança.

Desde então, a Stability AI lançou filtros que tentam bloquear o que a empresa chama de “conteúdo inseguro e inadequado”. E versões mais recentes da tecnologia foram desenvolvidas com o uso de conjuntos de dados que excluem conteúdo considerado “não seguro e inadequado”. Mas, segundo Thiel, as pessoas ainda estão usando o modelo mais antigo para produzir imagens que o mais novo proíbe.

Ao contrário do Stable Diffusion, o Dall-E não é de código aberto e só é acessível mediante a própria interface da OpenAI. O modelo também foi desenvolvido com muito mais salvaguardas para proibir a criação até mesmo de imagens legais de nudez de adultos. “Os modelos se recusam a ter conversas sexuais com você. Fazemos isso principalmente por prudência em torno de alguns desses tópicos sexuais mais sombrios”, afirmou Willner.

Perguntas em aberto
A Thorn tem uma ferramenta chamada Safer, que verifica imagens de abuso infantil e ajuda empresas a denunciá-las ao Centro Nacional para Crianças Desaparecidas e Exploradas, que administra uma câmara de compensação designada pelo governo federal para material suspeito de abuso sexual infantil. A OpenAI usa o Safer para digitalizar o conteúdo que as pessoas incluem na ferramenta de edição do Dall-E, o que é útil para capturar imagens reais de crianças, mas Willner observou que mesmo as ferramentas automatizadas mais sofisticadas podem ter dificuldades para identificar com precisão imagens geradas por IA.

Essa é uma preocupação crescente entre os especialistas em segurança infantil: essa IA não vai ser usada só para criar novas imagens de crianças reais, mas também para tornar explícitas imagens de crianças que não existem.

Esse conteúdo é ilegal por si só e terá de ser denunciado. Mas essa possibilidade também levou ao temor de que a câmara de compensação federal possa ser ainda mais inundada com imagens falsas, que complicariam os esforços para identificar vítimas reais. Só no ano passado, o centro recebeu cerca de 32 milhões de denúncias por meio do CyberTipline. “Se começarmos a receber denúncias, conseguiremos saber? As imagens serão marcadas ou poderão ser diferenciadas das de crianças reais?”, questionou Yiota Souras, conselheira-geral do Centro Nacional para Crianças Desaparecidas e Exploradas.

Pelo menos algumas dessas respostas terão de ser fornecidas não apenas por empresas de IA, como a OpenAI e a Stability AI, mas por aquelas que administram aplicativos de mensagens ou plataformas de mídia social, como a Meta, que é a mais reportada à CyberTipline.

No ano passado, chegaram mais de 27 milhões de denúncias contra o Facebook, o WhatsApp e o Instagram. As empresas de tecnologia já usam um sistema de classificação, desenvolvido pela Tech Coalition, aliança do setor, para categorizar o material suspeito de abuso sexual infantil pela idade aparente da vítima e pela natureza dos atos retratados. Os pesquisadores da Thorn e de Stanford argumentam que essas classificações devem ser ampliadas para também refletir se uma imagem foi gerada por computador.

Em um comunicado ao The New York Times, a chefe global de segurança da Meta, Antigone Davis, declarou: “Estamos trabalhando para melhorar a efetividade e para nos basearmos em provas em nossa abordagem de conteúdo gerado por IA, como entender quando a inclusão de informações de identificação seria mais benéfica e como essas informações deveriam ser transmitidas”. Ela acrescentou que a empresa trabalharia com o Centro Nacional para Crianças Desaparecidas e Exploradas para determinar o melhor caminho a seguir.

Além das responsabilidades das plataformas, os pesquisadores argumentam que as empresas de IA podem fazer mais. Especificamente, deveriam treinar seus modelos para não criar imagens de nudez infantil e identificar claramente imagens geradas por inteligência artificial enquanto estas circulam na internet, o que significaria colocar uma marca d’água nessas imagens mais difícil de remover do que as que a Stability AI ou a OpenAI já implantaram.

À medida que os legisladores procuram regulamentar a IA, especialistas veem a obrigatoriedade de alguma forma de marca d’água ou rastreamento de procedência como fundamental para combater não apenas o material de abuso sexual infantil, mas também a desinformação.

“É difícil funcionar bem com o que temos aqui, e é por isso que um regime regulatório é necessário”, disse Hany Farid, professor de ciência forense digital da Universidade da Califórnia em Berkeley. Responsável pelo desenvolvimento do PhotoDNA, ferramenta introduzida em 2009 pela Microsoft, que muitas empresas de tecnologia agora usam para encontrar e bloquear automaticamente imagens conhecidas de abuso sexual infantil, Farid acredita que os gigantes da tecnologia demoraram muito para usar essa ferramenta depois que foi desenvolvida, e isso permitiu que o material de abuso sexual infantil se espalhasse livremente durante anos.

Ele está trabalhando com várias empresas de tecnologia para criar um novo padrão técnico que rastreie imagens geradas por IA. A Stability AI está entre as empresas que planejam seguir esse padrão.

Outra questão em aberto é como o sistema judicial tratará os casos contra criadores de material de abuso sexual infantil gerado por IA — e qual será a responsabilidade das empresas. Embora a lei contra a “pornografia infantil gerada por computador” exista há duas décadas, ela nunca foi testada na Justiça. Uma lei anterior que tentava proibir o que era então chamado de pornografia infantil virtual foi derrubada pela Suprema Corte em 2002 por infringir a liberdade de expressão.

Membros da Comissão Europeia, da Casa Branca e do Comitê Judiciário do Senado americano foram informados sobre as descobertas de Stanford e da Thorn. “É fundamental que as empresas e os legisladores encontrem respostas para essas perguntas antes que a tecnologia avance ainda mais e inclua, por exemplo, vídeos. Temos de conseguir antes disso”, afirmou Thiel.

c. 2023 The New York Times Company

Fonte: r7

0 FacebookTwitterLinkedinWhatsappTelegramEmail
Mais previsões: Meteorologia 25 dias

Sobre Guarulhos

  • Guarulhos é um município da Região Metropolitana de São Paulo, no estado de São Paulo, no Brasil.
  • Clima: tropical de altitude (Cwa)
  • Altitude: 759 m
  • Emancipação: 24 de março de 1880 (143 anos)
  • Fundação: 8 de dezembro de 1560 (462 anos)

Informações

  • Sobre
  • Contato
  • Anuncie Conosoco

Links Úteis

  • Política de Privacidade
  • Termos de Uso
  • Telefones Úteis
  • Delegacia de Defesa da Mulher

Assine nossa Newsletter

* obrigatório
/* real people should not fill this in and expect good things - do not remove this or risk form bot signups */

referral badge

@2023 Voz de Guarulhos

Facebook Twitter Youtube Instagram Linkedin
Usamos cookies em nosso site para oferecer a você a experiência mais relevante, lembrando suas preferências e visitas repetidas. Ao clicar em “Aceitar tudo”, você concorda com o uso de todos os cookies. No entanto, você pode visitar "Configurações de cookies" para fornecer um consentimento controlado.
Cookie SettingsAccept All
Manage consent

Privacy Overview

This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary
Sempre ativado
Necessary cookies are absolutely essential for the website to function properly. These cookies ensure basic functionalities and security features of the website, anonymously.
CookieDuraçãoDescrição
cookielawinfo-checkbox-analytics11 monthsThis cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Analytics".
cookielawinfo-checkbox-functional11 monthsThe cookie is set by GDPR cookie consent to record the user consent for the cookies in the category "Functional".
cookielawinfo-checkbox-necessary11 monthsThis cookie is set by GDPR Cookie Consent plugin. The cookies is used to store the user consent for the cookies in the category "Necessary".
cookielawinfo-checkbox-others11 monthsThis cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Other.
cookielawinfo-checkbox-performance11 monthsThis cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Performance".
viewed_cookie_policy11 monthsThe cookie is set by the GDPR Cookie Consent plugin and is used to store whether or not user has consented to the use of cookies. It does not store any personal data.
Functional
Functional cookies help to perform certain functionalities like sharing the content of the website on social media platforms, collect feedbacks, and other third-party features.
Performance
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Analytics
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.
Advertisement
Advertisement cookies are used to provide visitors with relevant ads and marketing campaigns. These cookies track visitors across websites and collect information to provide customized ads.
Others
Other uncategorized cookies are those that are being analyzed and have not been classified into a category as yet.
SALVAR E ACEITAR
Voz de Guarulhos
  • Home
  • Emprego
  • Entretenimento
  • Esporte
  • Pet
  • Política
  • Saúde
  • Segurança
  • Jornal ImpressoHOT
Voz de Guarulhos
  • Home
  • Emprego
  • Entretenimento
  • Esporte
  • Pet
  • Política
  • Saúde
  • Segurança
  • Jornal ImpressoHOT
@2021 - All Right Reserved. Designed and Developed by PenciDesign
Envie sua Denúncia ou Vídeo!