Voz de Guarulhos
  • Home
  • Emprego
  • Entretenimento
  • Esporte
  • Pet
  • Política
  • Saúde
  • Segurança
  • Jornal ImpressoHOT
Voz de Guarulhos
sábado, março 7, 2026
  • Home
  • Emprego
  • Entretenimento
  • Esporte
  • Pet
  • Política
  • Saúde
  • Segurança
  • Jornal ImpressoHOT
Voz de Guarulhos
Voz de Guarulhos
  • Home
  • Emprego
  • Entretenimento
  • Esporte
  • Pet
  • Política
  • Saúde
  • Segurança
  • Jornal Impresso
@2023 Voz de Guarulhos
Tag:

INTELIGÊNCIA ARTIFICIAL

Tecnologia

Barroso defende regulamentação da IA e alerta sobre ameaça das deep fakes

por Redação 19 de agosto de 2024

Durante a abertura do evento “Os impactos da inteligência artificial no constitucionalismo contemporâneo”, realizada nesta segunda-feira (19) no STF (Supremo Tribunal Federal), o presidente do STF, ministro Luís Roberto Barroso, ressaltou os desafios e perigos relacionados à inteligência artificial (IA), com destaque para a ameaça representada pelas deep fakes, que são vídeos manipulados digitalmente.

Barroso afirmou que essas tecnologias comprometem gravemente a liberdade de expressão ao permitirem a criação de vídeos nos quais pessoas aparecem falando ou fazendo coisas que nunca fizeram, sem que seja possível detectar a manipulação a olho nu. “Agora temos o deep fake, que tem a capacidade de me colocar aqui falando coisas que eu nunca falei sem que seja possível detectar a olho nu e isso é gravíssimo porque compromete a liberdade de expressão”, disse.

O ministro também alertou para outros impactos negativos da IA, como a desinformação em massa, o uso bélico, a maldade nas redes e, particularmente, no ambiente eleitoral. Ele observou que, apesar dos riscos evidentes, a regulação da IA é uma tarefa complexa, dado que muitas das implicações futuras dessa tecnologia ainda são desconhecidas.

“A IA oferece sim riscos, mas é muito difícil regular algo que nós não sabemos direito o que está ainda por vir, mas existem valores que não podemos perder de vista, sendo eles: os direitos fundamentais, como a privacidade, liberdade de expressão, tem a proteção à democracia, com os riscos da desinformação e ataques”, pontuou.

Barroso ainda comentou que a mudança mais significativa trazida pela IA até o momento foi o advento da inteligência artificial generativa, como o ChatGPT, que é capaz de criar conteúdos autonomamente.

“Essa é uma transformação muito profunda”, afirmou. Ele enfatizou que a IA não possui discernimento moral ou ético, não distinguindo entre certo e errado ou bom e ruim, sendo inteiramente dependente dos dados e instruções fornecidos por seres humanos.

“A partir do momento que as decisões mais importantes das nossas vidas forem tomadas fora da gente, rompeu-se um dos pilares que nós fomos educados.”

Fonte: r7

0 FacebookTwitterLinkedinWhatsappTelegramEmail
TSE

TSE discute as regras para as eleições de 2024 com foco na regulação da inteligência artificial

por Redação 24 de janeiro de 2024

O Tribunal Superior Eleitoral começou a discutir, nesta terça (23), as regras para as eleições municipais de 2024. Um dos principais pontos será a regulação do uso de inteligência artificial em propagandas eleitorais. O TSE vai promover três dias de audiências públicas para receber sugestões de especialistas.

Fonte: r7

0 FacebookTwitterLinkedinWhatsappTelegramEmail
MundoTecnologia

Cientista passa dez meses preso após IA identificá-lo erroneamente como assassino

por Redação 18 de dezembro de 2023

Um cientista russo ficou quase um ano atrás das grades, após uma inteligência artificial determinar que seu rosto correspondia em 55% ao esboço de um assassino desenhado havia 20 anos por uma testemunha.

Em fevereiro, o hidrólogo Alexander Tsvetkov, pesquisador do Instituto de Biologia de Águas Interiores da Academia Russa de Ciências, foi retirado de um avião, ao chegar de uma viagem de trabalho a Krasnoyarsk, na Rússia.

As autoridades alegaram que ele foi identificado como suspeito de ter cometido uma série de assassinatos duas décadas antes. De acordo com os policiais, ele e um suposto comparsa mataram pelo menos duas pessoas em Moscou e nos arredores, em agosto de 2002.

Naquela noite, um homem foi assassinado em uma briga de bar, e duas mulheres de 64 e 90 anos foram roubadas e mortas.

O suposto cúmplice se apresentou, admitiu os assassinatos e reconheceu o cientista. No entanto, havia alguns erros em seu depoimento, como a afirmação de que o pesquisador era morador de rua na época e que fumava mais de um maço de cigarro todos os dias.

Não só Tsvetkov nunca morou na rua, como também nunca fumou, devido a problemas pulmonares que tem desde criança. O cúmplice também lembrou que o homem tinha tatuagens nos dedos e na mão esquerda, mas os parentes do cientista dizem que ele nunca fez tatuagens.

Seus colegas de trabalho também disseram que, na data dos assassinatos, Tsvetkov estava com eles a milhares de quilômetros de Moscou, o que foi totalmente ignorado pelo júri, que baseou toda a investigação na análise do sistema de inteligência artificial.

O caso tem sido noticiado há meses e, após uma campanha pedindo a sua libertação, bem como a suposta intervenção do próprio Vladimir Putin, o cientista foi libertado no início deste mês. Mesmo assim, as acusações contra ele ainda não foram retiradas.

Fonte: r7

0 FacebookTwitterLinkedinWhatsappTelegramEmail
Tecnologia

Moraes pede a Congresso que regulamente inteligência artificial para eleições

por Redação 12 de dezembro de 2023

O presidente do Tribunal Superior Eleitoral (TSE), ministro Alexandre de Moraes, cobrou do Congresso Nacional, nesta terça-feira (12), uma regulamentação sobre o uso da inteligência artificial (IA) nas eleições de 2024. O ministro afirmou que “não há a mínima transparência” dos algoritmos usados pela IA e pelas big techs.

A declaração foi dada em um evento sobre diálogo entre os Poderes e os 35 anos da Constituição Federal. “Se não há transparência, não há possibilidade de controle e, se junta a ausência de transparência, há total impunidade. A internet não é terra de ninguém”, disse.

O ministro afirmou que houve uma vontade de manipular as pessoas, uma “lavagem cerebral”. Ele alertou também para uma manipulação do eleitor. “Se é algo que afeta a mente humana, afeta as relações de consumo e capital, que afeta a democracia, porque afeta a livre escolha do eleitor. É algo que tem que ser regulado”, declarou.

Moraes disse ainda que a sanção deve ser “drástica” para candidato que utilizar a inteligência artificial para manipular as eleições. Segundo ele, o candidato deve ter o registro cassado e, se for eleito, deve ter o mandato cassado.

“Não podemos permitir que o eleitor tenha a sua vontade desvirtuada por meio de imagens que são mais perfeitas que filmes. É um desafio. A inteligência virtual é uma realidade que veio, um avanço, mas é um avanço que pode ser desvirtuado pelo ser humano e pelas big techs e quem pode desvirtuar deve ser responsabilizado. Não é possível mais que big techs sejam consideradas empresas de tecnologia”, defendeu.

Fonte: r7

0 FacebookTwitterLinkedinWhatsappTelegramEmail
Mundo

Especialistas correm para evitar a criação de pornografia infantil por inteligência artificial

por Redação 3 de julho de 2023

Dave Willner teve um lugar de destaque na evolução das piores coisas na internet. Começou a trabalhar no Facebook em 2008, quando as empresas de mídia social iam criando suas regras à medida que avançavam.

Como chefe de política de conteúdo da empresa, foi ele quem, há mais de uma década, redigiu os primeiros padrões oficiais da comunidade do Facebook, transformando o que, segundo ele, era uma lista informal de uma página, que se resumia principalmente a uma proibição de “Hitler e pessoas nuas”, no que agora é um catálogo extenso de insultos, crimes e outras coisas grotescas que são banidas em todas as plataformas da Meta.

Assim, no ano passado, quando o laboratório de inteligência artificial OpenAI, de San Francisco, se preparava para lançar o Dall-E, ferramenta que permite a qualquer pessoa criar instantaneamente uma imagem descrevendo-a em poucas palavras, a empresa escolheu Willner para ser seu chefe de confiabilidade e segurança. Inicialmente, isso significava vasculhar todas as imagens e prompts que os filtros da Dall-E sinalizavam como possíveis violações — e descobrir maneiras de evitar que os infratores tivessem sucesso.

Não demorou muito para que Willner considerasse uma ameaça conhecida. Assim como os predadores de crianças usaram durante anos o Facebook e outras grandes plataformas de tecnologia para divulgar imagens de abuso sexual infantil, eles agora tentavam usar o Dall-E para criar imagens totalmente novas. “Não me surpreendeu que tentassem fazer isso. E o pessoal da OpenAI também não ficou surpreso”, disse ele.

Apesar de toda a conversa recente sobre os hipotéticos riscos existenciais da inteligência artificial (IA) generativa, os especialistas dizem que é essa ameaça imediata — os predadores de crianças que já estão usando novas ferramentas de IA — que merece a atenção exclusiva da indústria.

Em um artigo recém-publicado pelo Observatório da Internet de Stanford e pela Thorn, organização sem fins lucrativos que luta contra a disseminação do abuso sexual infantil online, os pesquisadores descobriram que, desde agosto passado, houve um pequeno, mas significativo, aumento na quantidade de material fotorrealista de abuso sexual infantil gerado por IA circulando na dark web.

De acordo com os pesquisadores da Thorn, isso se manifestou sobretudo em imagens que usam a semelhança com vítimas reais, mas as mostram em novas poses, sendo submetidas a novas e cada vez mais flagrantes formas de violência sexual. A maioria dessas imagens foi gerada não pelo Dall-E, mas por ferramentas de código aberto desenvolvidas e lançadas com poucas proteções em vigor, descobriram os pesquisadores.

Em seu artigo, eles afirmaram que menos de 1% do material de abuso sexual infantil encontrado em uma amostra de comunidades predatórias conhecidas parecia ser imagens fotorrealistas geradas por IA. Mas, dado o ritmo vertiginoso de desenvolvimento dessas ferramentas generativas, os pesquisadores preveem que esse número só vá crescer.

“Dentro de um ano, vamos chegar a um estado problemático nessa área. Para mim, esse é absolutamente o pior cenário da aprendizagem de máquina”, afirmou David Thiel, técnico-chefe do Observatório de Stanford, que coescreveu o artigo com a diretora de ciência de dados da Thorn, Rebecca Portnoff, e a chefe de pesquisa da Thorn, Melissa Stroebel.

‘Confiamos nas pessoas’
Em 2003, o Congresso aprovou uma lei que proíbe a “pornografia infantil gerada por computador” — exemplo raro de preparação para o futuro. Mas, na época, a criação dessas imagens era proibitivamente cara e tecnicamente complexa.

O custo e a complexidade dessa criação têm diminuído constantemente, mas mudaram em agosto passado com a estreia pública do Stable Diffusion, gerador gratuito de texto para imagem de código aberto desenvolvido pela Stability AI, empresa de aprendizagem de máquina sediada em Londres.

Em sua primeira iteração, a Stable Diffusion impunha poucos limites às imagens que seu modelo poderia produzir, incluindo aquelas que continham nudez. “Confiamos nas pessoas e na comunidade”, declarou o presidente-executivo da empresa, Emad Mostaque, ao The New York Times no fim do ano passado.

Motez Bishara, diretor de comunicações da Stability AI, disse em comunicado que a empresa proibiu o uso indevido de sua tecnologia para fins “ilegais ou imorais”, incluindo a criação de material de abuso sexual infantil: “Apoiamos fortemente os esforços de aplicação da lei contra aqueles que usam indevidamente nossos produtos para fins ilegais ou nefastos.”

Como o modelo é de código aberto, os desenvolvedores podem baixar e modificar o código no próprio computador e usá-lo para gerar, entre outras coisas, pornografia adulta realista. Em seu artigo, os pesquisadores da Thorn e de Stanford descobriram que os predadores ajustaram esses modelos para também poder criar imagens sexualmente explícitas de crianças.

Os pesquisadores demonstram uma versão higienizada disso no relatório, modificando uma imagem gerada por IA de uma mulher até parecer uma imagem de Audrey Hepburn quando criança.

Desde então, a Stability AI lançou filtros que tentam bloquear o que a empresa chama de “conteúdo inseguro e inadequado”. E versões mais recentes da tecnologia foram desenvolvidas com o uso de conjuntos de dados que excluem conteúdo considerado “não seguro e inadequado”. Mas, segundo Thiel, as pessoas ainda estão usando o modelo mais antigo para produzir imagens que o mais novo proíbe.

Ao contrário do Stable Diffusion, o Dall-E não é de código aberto e só é acessível mediante a própria interface da OpenAI. O modelo também foi desenvolvido com muito mais salvaguardas para proibir a criação até mesmo de imagens legais de nudez de adultos. “Os modelos se recusam a ter conversas sexuais com você. Fazemos isso principalmente por prudência em torno de alguns desses tópicos sexuais mais sombrios”, afirmou Willner.

Perguntas em aberto
A Thorn tem uma ferramenta chamada Safer, que verifica imagens de abuso infantil e ajuda empresas a denunciá-las ao Centro Nacional para Crianças Desaparecidas e Exploradas, que administra uma câmara de compensação designada pelo governo federal para material suspeito de abuso sexual infantil. A OpenAI usa o Safer para digitalizar o conteúdo que as pessoas incluem na ferramenta de edição do Dall-E, o que é útil para capturar imagens reais de crianças, mas Willner observou que mesmo as ferramentas automatizadas mais sofisticadas podem ter dificuldades para identificar com precisão imagens geradas por IA.

Essa é uma preocupação crescente entre os especialistas em segurança infantil: essa IA não vai ser usada só para criar novas imagens de crianças reais, mas também para tornar explícitas imagens de crianças que não existem.

Esse conteúdo é ilegal por si só e terá de ser denunciado. Mas essa possibilidade também levou ao temor de que a câmara de compensação federal possa ser ainda mais inundada com imagens falsas, que complicariam os esforços para identificar vítimas reais. Só no ano passado, o centro recebeu cerca de 32 milhões de denúncias por meio do CyberTipline. “Se começarmos a receber denúncias, conseguiremos saber? As imagens serão marcadas ou poderão ser diferenciadas das de crianças reais?”, questionou Yiota Souras, conselheira-geral do Centro Nacional para Crianças Desaparecidas e Exploradas.

Pelo menos algumas dessas respostas terão de ser fornecidas não apenas por empresas de IA, como a OpenAI e a Stability AI, mas por aquelas que administram aplicativos de mensagens ou plataformas de mídia social, como a Meta, que é a mais reportada à CyberTipline.

No ano passado, chegaram mais de 27 milhões de denúncias contra o Facebook, o WhatsApp e o Instagram. As empresas de tecnologia já usam um sistema de classificação, desenvolvido pela Tech Coalition, aliança do setor, para categorizar o material suspeito de abuso sexual infantil pela idade aparente da vítima e pela natureza dos atos retratados. Os pesquisadores da Thorn e de Stanford argumentam que essas classificações devem ser ampliadas para também refletir se uma imagem foi gerada por computador.

Em um comunicado ao The New York Times, a chefe global de segurança da Meta, Antigone Davis, declarou: “Estamos trabalhando para melhorar a efetividade e para nos basearmos em provas em nossa abordagem de conteúdo gerado por IA, como entender quando a inclusão de informações de identificação seria mais benéfica e como essas informações deveriam ser transmitidas”. Ela acrescentou que a empresa trabalharia com o Centro Nacional para Crianças Desaparecidas e Exploradas para determinar o melhor caminho a seguir.

Além das responsabilidades das plataformas, os pesquisadores argumentam que as empresas de IA podem fazer mais. Especificamente, deveriam treinar seus modelos para não criar imagens de nudez infantil e identificar claramente imagens geradas por inteligência artificial enquanto estas circulam na internet, o que significaria colocar uma marca d’água nessas imagens mais difícil de remover do que as que a Stability AI ou a OpenAI já implantaram.

À medida que os legisladores procuram regulamentar a IA, especialistas veem a obrigatoriedade de alguma forma de marca d’água ou rastreamento de procedência como fundamental para combater não apenas o material de abuso sexual infantil, mas também a desinformação.

“É difícil funcionar bem com o que temos aqui, e é por isso que um regime regulatório é necessário”, disse Hany Farid, professor de ciência forense digital da Universidade da Califórnia em Berkeley. Responsável pelo desenvolvimento do PhotoDNA, ferramenta introduzida em 2009 pela Microsoft, que muitas empresas de tecnologia agora usam para encontrar e bloquear automaticamente imagens conhecidas de abuso sexual infantil, Farid acredita que os gigantes da tecnologia demoraram muito para usar essa ferramenta depois que foi desenvolvida, e isso permitiu que o material de abuso sexual infantil se espalhasse livremente durante anos.

Ele está trabalhando com várias empresas de tecnologia para criar um novo padrão técnico que rastreie imagens geradas por IA. A Stability AI está entre as empresas que planejam seguir esse padrão.

Outra questão em aberto é como o sistema judicial tratará os casos contra criadores de material de abuso sexual infantil gerado por IA — e qual será a responsabilidade das empresas. Embora a lei contra a “pornografia infantil gerada por computador” exista há duas décadas, ela nunca foi testada na Justiça. Uma lei anterior que tentava proibir o que era então chamado de pornografia infantil virtual foi derrubada pela Suprema Corte em 2002 por infringir a liberdade de expressão.

Membros da Comissão Europeia, da Casa Branca e do Comitê Judiciário do Senado americano foram informados sobre as descobertas de Stanford e da Thorn. “É fundamental que as empresas e os legisladores encontrem respostas para essas perguntas antes que a tecnologia avance ainda mais e inclua, por exemplo, vídeos. Temos de conseguir antes disso”, afirmou Thiel.

c. 2023 The New York Times Company

Fonte: r7

0 FacebookTwitterLinkedinWhatsappTelegramEmail
GuarulhosSegurançaTecnologia

Golpistas usam inteligência artificial para clonar vozes e extorquir dinheiro de vítimas

por Redação 10 de março de 2023

Golpistas começaram a utilizar inteligência artificial para enganar vítimas e ganhar milhares de dólares. Em um dos casos mais assustadores, criminosos utilizaram um software avançado para imitar a voz do neto de uma senhora de 73 anos e quase conseguiram extorquir dinheiro dela.

A canadense Ruth Card recentemente recebeu a ligação de alguém que dizia ser Brandon, um neto dela, que contou estar preso e precisava de dinheiro para fiança. Quase sem pensar, ela e o marido Greg correram para o banco.

Conseguiram sacar 3.000 dólares canadenses (R$ 11,2 mil, na cotação atual) de uma agência de Regina, no Canadá, e só não tiraram mais porque o gerente de uma segunda agência havia falando com um cliente que dissera ter recebido uma ligação semelhante, mas percebera que a voz era falsificada a tempo.

“Estávamos realmente convencidos de que conversamos com Brandon”, disse Ruth Card, em entrevista ao jornal Washington Post.

Assim como no Brasil, golpes que usam identidade de conhecidos são comuns nos Estados Unidos e Canadá. Mas, recentemente, eles começaram a ficar mais sofisticados graças ao uso de inteligência artificial generativa.

Programas relativamente baratos permitem imitar vozes com pequenas amostras de áudio que podem ser obtidas de vídeos publicados online. A IA identifica características únicas da voz, como sotaque e entonação, e o que não consegue estabelecer com precisão, é preenchido com vozes semelhantes pesquisadas em imensos bancos de dados que alimentam tais programas.

Em uma ligação, basta ao golpista digitar que o programa “fala” com a vítima.

Uma dessas ferramentas mais famosas, criada pela startup EvenLabs, foi criticada por não criar formas de coibir o mau uso da ferramenta. No fim de fevereiro, um jornalista da Vice testou uma versão de 5 dólares da ferramenta e conseguiu acessar a própria conta bancária.

No fim de janeiro, a empresa afirmou no Twitter que vai criar ferramentas para identificar vozes criadas por IA.

Advogados e bitcoins
Alguns não têm tanta sorte quanto Ruth. O Washington Post relatou o caso de Benjamin Perkin, cujos pais idosos foram roubados em 21 mil dólares canadenses (R$ 78,4 mil, na cotação atual).

Os pais dele receberam a ligação de alguém que disse ser advogado e informou que Benjamin tinha se envolvido em um acidente de carro e precisava de dinheiro para pagar advogados e evitar ficar preso.

O advogado disse que Benjamin falaria ao telefone e a voz soou igual à dele, segundo o depoimento. Isso convenceu os pais a transferirem o dinheiro, por meio de bitcoins — o que torna quase impossível rastrear o destino dos fundos e investigar o caso.

Como golpistas geralmente usam criptomoedas e podem ligar de telefones em praticamente qualquer país do mundo, rastreá-los é extremamente difícil. O pânico do momento também dificulta perceber o golpe: os pais de Benjamin afirmaram que a ligação parecia estranha, mas era convincente o bastante.

A saída, segundo alguns juristas, é criminalizar as fabricantes de softwares do tipo. Mas isso só ocorrerá quando casos como esses forem julgados, e para isso são necessários processos.

Fonte: Com informações da Agência Estado

0 FacebookTwitterLinkedinWhatsappTelegramEmail
Mais previsões: Meteorologia 25 dias

Sobre Guarulhos

  • Guarulhos é um município da Região Metropolitana de São Paulo, no estado de São Paulo, no Brasil.
  • Clima: tropical de altitude (Cwa)
  • Altitude: 759 m
  • Emancipação: 24 de março de 1880 (143 anos)
  • Fundação: 8 de dezembro de 1560 (462 anos)

Informações

  • Sobre
  • Contato
  • Anuncie Conosoco

Links Úteis

  • Política de Privacidade
  • Termos de Uso
  • Telefones Úteis
  • Delegacia de Defesa da Mulher

Assine nossa Newsletter

* obrigatório
/* real people should not fill this in and expect good things - do not remove this or risk form bot signups */

referral badge

@2023 Voz de Guarulhos

Facebook Twitter Youtube Instagram Linkedin
Usamos cookies em nosso site para oferecer a você a experiência mais relevante, lembrando suas preferências e visitas repetidas. Ao clicar em “Aceitar tudo”, você concorda com o uso de todos os cookies. No entanto, você pode visitar "Configurações de cookies" para fornecer um consentimento controlado.
Cookie SettingsAccept All
Manage consent

Privacy Overview

This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary
Sempre ativado
Necessary cookies are absolutely essential for the website to function properly. These cookies ensure basic functionalities and security features of the website, anonymously.
CookieDuraçãoDescrição
cookielawinfo-checkbox-analytics11 monthsThis cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Analytics".
cookielawinfo-checkbox-functional11 monthsThe cookie is set by GDPR cookie consent to record the user consent for the cookies in the category "Functional".
cookielawinfo-checkbox-necessary11 monthsThis cookie is set by GDPR Cookie Consent plugin. The cookies is used to store the user consent for the cookies in the category "Necessary".
cookielawinfo-checkbox-others11 monthsThis cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Other.
cookielawinfo-checkbox-performance11 monthsThis cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Performance".
viewed_cookie_policy11 monthsThe cookie is set by the GDPR Cookie Consent plugin and is used to store whether or not user has consented to the use of cookies. It does not store any personal data.
Functional
Functional cookies help to perform certain functionalities like sharing the content of the website on social media platforms, collect feedbacks, and other third-party features.
Performance
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Analytics
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.
Advertisement
Advertisement cookies are used to provide visitors with relevant ads and marketing campaigns. These cookies track visitors across websites and collect information to provide customized ads.
Others
Other uncategorized cookies are those that are being analyzed and have not been classified into a category as yet.
SALVAR E ACEITAR
Voz de Guarulhos
  • Home
  • Emprego
  • Entretenimento
  • Esporte
  • Pet
  • Política
  • Saúde
  • Segurança
  • Jornal ImpressoHOT
Voz de Guarulhos
  • Home
  • Emprego
  • Entretenimento
  • Esporte
  • Pet
  • Política
  • Saúde
  • Segurança
  • Jornal ImpressoHOT
@2021 - All Right Reserved. Designed and Developed by PenciDesign
Envie sua Denúncia ou Vídeo!