Categoria: TECNOLOGIA

  • Sistema de verificação de idade do Roblox é falho e pode ser burlado com facilidade

    Sistema de verificação de idade do Roblox é falho e pode ser burlado com facilidade

    Testes mostram que falhas no reconhecimento facial permitem que adultos entrem em servidores infantis e que adolescentes burlem o sistema para acessar recursos restritos, levantando novos alertas sobre a segurança de crianças na plataforma de jogos.

    (CBS NEWS) – A ferramenta de verificação de idade do Roblox apresenta falhas que permitem tanto que adultos se passem por crianças quanto que menores consigam se fazer passar por usuários mais velhos dentro da plataforma de jogos.

    A reportagem realizou diferentes testes para acessar o game, que tem sido alvo de denúncias envolvendo abuso e aliciamento de menores de 18 anos. Recentemente, a empresa implementou um sistema de moderação para impedir que usuários de faixas etárias distintas conversem entre si. Ainda assim, o mecanismo de verificação etária mostrou-se vulnerável.

    No primeiro teste, uma criança de 12 anos, com autorização dos pais, criou uma nova conta no Roblox e realizou o reconhecimento facial. Após a conclusão da verificação, os dados de acesso foram repassados a um repórter adulto, que conseguiu entrar na conta a partir de São Paulo sem qualquer nova checagem de identidade. Não houve solicitação de código por telefone ou e-mail, nem nova autenticação biométrica, prática comum em outros aplicativos.

    O procedimento demonstrou que um adulto pode acessar servidores destinados a crianças apenas com login e senha criados por um menor de idade.

    Pelas regras da plataforma, crianças com menos de 9 anos não podem usar o chat, a menos que haja liberação dos responsáveis. Até os 13 anos, a verificação facial é obrigatória para acesso às mensagens, além da autorização dos pais.

    O segundo teste indicou que crianças também conseguem burlar o sistema. Um adolescente de 14 anos, morador de Ilhéus, na Bahia, criou uma conta e utilizou uma caneta esferográfica e um ambiente com pouca iluminação para se passar por mais velho. Ele desenhou pelos faciais e marcas de expressão no rosto antes de realizar a biometria. O sistema atribuiu a ele a idade de 17 anos.

    Vídeos que circulam nas redes sociais reforçam esse tipo de prática. Em diversas publicações, menores aparecem usando a mesma estratégia de desenhar barba com caneta para enganar a verificação facial.

    Procurado, o Roblox não se manifestou até a publicação deste texto.

    A plataforma voltou ao noticiário após protestos virtuais contra a implantação do novo sistema de verificação etária. Dentro do jogo, avatares incendiaram caminhões e exibiram placas com críticas às mudanças. Parte dos usuários pediu a liberação do chat para todas as idades e atribuiu as alterações ao influenciador Felca, que em agosto do ano passado denunciou casos de pedofilia em ambientes digitais e levou o debate ao Congresso.

    Houve questionamentos sobre se as manifestações foram, de fato, protagonizadas por crianças. Em comunidades do jogo, a maioria dos usuários afirma que sim.

    Jogador de Roblox há dez anos e dono de um canal no YouTube sobre o game, com mais de 234 mil seguidores, Luca Rocha, 22, afirma que o ambiente onde ocorreram os protestos é voltado majoritariamente ao público infantil. Segundo ele, trata-se de um espaço de roleplay em que os usuários simulam a vida cotidiana, atraindo principalmente crianças com menos de 12 ou 13 anos.

    Também em agosto do ano passado, a procuradora-geral do estado americano da Louisiana, Liz Murrill, entrou com uma ação judicial contra o Roblox, acusando a plataforma de ser um ambiente propício para pedófilos devido à falta de protocolos de segurança. Segundo ela, a empresa prioriza crescimento de usuários e lucros em detrimento da proteção infantil.

    O processo foi aberto após a repercussão do banimento do youtuber Andrew Schlep, que produzia vídeos denunciando supostos predadores sexuais que aliciavam menores no chat do jogo. Ele afirmou ter recebido uma carta do Roblox confirmando o banimento de todas as suas contas, sob a justificativa de violação dos termos da plataforma.

    Rocha relata que as denúncias dentro do Roblox frequentemente não resultam em punições efetivas. Ele diz já ter presenciado situações preocupantes. Em um jogo de parkour, contou ter ouvido um homem com voz adulta interagindo com uma criança, que se referia a ele como seu melhor amigo. Segundo Rocha, o comportamento era estranho e indicava ciúmes. Ele afirma ter alertado o homem de que gravaria a conversa caso algo inadequado ocorresse, o que levou o usuário a sair do jogo. Apesar de ter denunciado o caso, Rocha diz que o perfil nunca foi banido.
     
     

     

    Sistema de verificação de idade do Roblox é falho e pode ser burlado com facilidade

  • YouTube vai lançar ferramenta de IA para criação de Shorts

    YouTube vai lançar ferramenta de IA para criação de Shorts

    Novo recurso anunciado pelo CEO Neal Mohan permitirá que criadores usem inteligência artificial para gerar imagens em vídeos curtos, reforçando a aposta da plataforma no formato Shorts, que já soma cerca de 200 bilhões de visualizações diárias.

    O CEO do YouTube, Neal Mohan, anunciou que os criadores de conteúdo da plataforma poderão usar uma nova ferramenta de inteligência artificial para gerar a próxima imagem em vídeos de curta duração, os chamados Shorts.

    Mohan não deu detalhes sobre o funcionamento do recurso e informou apenas que o lançamento está previsto para este ano, sem uma data definida. “Teremos mais informações em breve, incluindo quando o recurso será lançado e como ele vai funcionar”, disse um porta-voz do YouTube ao site The Verge.

    A novidade reforça a estratégia da plataforma de investir ainda mais no formato Shorts, facilitando e acelerando o processo de criação de vídeos curtos para que os criadores consigam publicar conteúdo com mais frequência para suas comunidades.

    Em relação ao desempenho do formato, Mohan afirmou que os vídeos do YouTube Shorts já alcançam, em média, 200 bilhões de visualizações por dia.
     

     
     

    YouTube vai lançar ferramenta de IA para criação de Shorts

  • O ChatGPT vai implementar ferramenta para detectar menores de idade

    O ChatGPT vai implementar ferramenta para detectar menores de idade

    OpenAI estuda ferramenta baseada em comportamento e dados da conta para restringir o acesso de usuários jovens. Medida surge em meio a pressão regulatória e a novo embate público entre Sam Altman e Elon Musk.

    Depois do Roblox e do TikTok, o OpenAI avalia implementar no ChatGPT um sistema de estimativa de idade para restringir o acesso de usuários menores.

    Em comunicado publicado em seu blog oficial, a empresa informou que a ferramenta deve considerar a data de criação da conta, o comportamento dos usuários e padrões associados a faixas etárias para estimar a idade. Segundo a OpenAI, o modelo analisará uma combinação de sinais, como o tempo de existência da conta, períodos típicos de atividade, padrões de uso ao longo do tempo e a idade declarada pelo próprio usuário.

    A companhia explicou que, caso o sistema faça uma estimativa incorreta, o usuário poderá contestar a decisão por meio de uma plataforma específica, com a submissão de uma selfie para verificação.

    A OpenAI tem enfrentado pressão crescente para adotar medidas mais rígidas em relação ao uso do ChatGPT por menores de idade. A empresa também é alvo de processos judiciais nos quais a ferramenta é acusada de omissão ou até de ter contribuído para situações extremas envolvendo usuários vulneráveis.

    Sam Altman responde a críticas de Musk

    Casos recentes associados ao uso do ChatGPT reacenderam críticas de Elon Musk, dono da Tesla, da SpaceX, do X e da xAI. Em uma publicação no X, Musk afirmou que seus seguidores não deveriam permitir que pessoas próximas utilizassem o ChatGPT.

    A declaração gerou resposta do cofundador e CEO da OpenAI, Sam Altman, que reconheceu a necessidade de fazer mais para proteger usuários em situação de vulnerabilidade. Ao mesmo tempo, Altman criticou Musk, afirmando que o empresário costuma acusar o ChatGPT tanto de ser excessivamente restritivo quanto permissivo.

    Segundo Altman, cerca de um bilhão de pessoas utilizam a ferramenta, incluindo usuários em estados mentais frágeis, o que exige responsabilidade e equilíbrio. Ele afirmou que a OpenAI continuará tentando aprimorar seus sistemas, destacando que se trata de situações complexas e delicadas.

    Em seguida, Altman também direcionou críticas aos produtos da Tesla, mencionando acidentes associados ao sistema Autopilot. Ele afirmou que, em sua experiência, o recurso parecia inseguro para ser lançado e evitou comentar decisões relacionadas ao Grok, ferramenta de IA ligada à xAI.

    O ChatGPT vai implementar ferramenta para detectar menores de idade

  • Netflix planeja reformular app e aposta em vídeos verticais no celular

    Netflix planeja reformular app e aposta em vídeos verticais no celular

    Mudança anunciada por Greg Peters deve alterar a navegação no aplicativo móvel, integrar cenas de séries, filmes e podcasts em formato vertical e servir de base para novos testes e evoluções da plataforma nos próximos anos.

    Um dos CEOs da Netflix, Greg Peters, afirmou nesta terça-feira, 20, durante a apresentação de resultados da empresa, que a companhia pretende reformular a interface do aplicativo para celulares.

    Segundo o site TechCrunch, Peters disse que a mudança deve ajudar a impulsionar o crescimento da Netflix na próxima década e terá impacto semelhante ao da reformulação feita anteriormente no aplicativo para televisores, alterando a forma como os usuários navegam e consomem conteúdo no celular.

    O executivo explicou que a nova interface servirá como base para testes contínuos e aprimoramentos do serviço, permitindo à empresa evoluir sua oferta ao longo do tempo.

    Embora não tenha detalhado todas as novidades, Peters adiantou que o aplicativo passará a integrar de forma mais intensa conteúdos em vídeo vertical, formato popularizado por plataformas como TikTok, Instagram e YouTube. Esses vídeos devem trazer trechos de séries e filmes originais da Netflix.

    Além disso, os podcasts em vídeo que a plataforma pretende lançar ao longo de 2026 também serão exibidos nesse formato vertical. “Podem nos imaginar trazendo mais vídeos baseados em novos tipos de conteúdo, como podcasts em vídeo”, afirmou Peters.

    A expectativa é que a nova interface da Netflix seja disponibilizada para os aplicativos Android e iOS até o fim deste ano.

    Netflix planeja reformular app e aposta em vídeos verticais no celular

  • Estúdio de "Halo" e "Destiny" lança novo jogo online em março

    Estúdio de "Halo" e "Destiny" lança novo jogo online em março

    Jogo de tiro online da Bungie chega em março com cross-play, ambientação futurista e foco em exploração competitiva, no qual jogadores arriscam equipamentos a cada incursão e disputam recursos tanto contra inimigos do cenário quanto contra outros players

    A Bungie, estúdio responsável por franquias como Halo e Destiny, anunciou que seu próximo lançamento, Marathon, chegará oficialmente no dia 5 de março para PlayStation 5, Xbox Series e PC.

    O jogo estava inicialmente previsto para setembro do ano passado, mas acabou sendo adiado após a desenvolvedora decidir incorporar sugestões e críticas recebidas durante as fases de testes e avaliações da comunidade.

    Mesmo com o lançamento em múltiplas plataformas, a Bungie confirmou que Marathon contará com cross-play, permitindo que jogadores de sistemas diferentes joguem juntos.

    Ambientado no ano de 2850, o título se passa em um universo de ficção científica no qual os jogadores assumem o papel de Runners. O objetivo é explorar mapas hostis em busca de armas e equipamentos cada vez mais poderosos. Caso o personagem morra durante uma incursão, todo o loot obtido é perdido. Já quem consegue escapar com vida garante os itens de forma permanente.

    Além de enfrentar inimigos controlados pelo jogo, as equipes também precisam lidar com outros jogadores que disputam os mesmos recursos, o que adiciona um forte componente competitivo às partidas.

    Pode ver acima o novo trailer de “Marathon”.

    Estúdio de "Halo" e "Destiny" lança novo jogo online em março

  • Netflix pagará US$ 82 bilhões em dinheiro pela Warner para garantir compra

    Netflix pagará US$ 82 bilhões em dinheiro pela Warner para garantir compra

    A transação segue prevista para ser finalizada entre 12 e 18 meses após o acordo original, firmado em dezembro de 2025, e ainda depende de aprovações regulatórias nos Estados Unidos e na Europa, além do aval dos acionistas da Warner Bros. Discovery

    (CBS NEWS) – A Netflix concordou em adquirir os estúdios da Warner Bros. Discovery e a HBO Max em uma transação integralmente em dinheiro, numa tentativa de barrar a oferta rival hostil da Paramount Skydance, segundo a revista Variety. O acordo está avaliado em US$ 82,7 bilhões, cerca de R$ 444 bilhões.

    A mudança para pagamento totalmente em dinheiro “simplifica a estrutura da transação, oferece maior segurança de valor aos acionistas da Warner Bros. Discovery e acelera o caminho para a votação dos acionistas”, afirmaram porta-vozes das empresas à publicação americana. O acordo original, anunciado em dezembro, previa cerca de 84% do valor em dinheiro, o que deixava os acionistas expostos à volatilidade das ações da Netflix.

    Com os novos termos, a votação dos acionistas da Warner Bros. Discovery poderá ocorrer até abril de 2026.

    Outro ajuste relevante envolve a criação da Discovery Global, que ficará fora do escopo da aquisição pela Netflix. A nova empresa reunirá canais de televisão como CNN, TNT, TBS, HGTV, Food Network e TNT Sports. A Netflix aceitou contribuir para a redução da dívida líquida dessa companhia, e a separação deve ser concluída em um prazo de seis a nove meses.

    A transação segue prevista para ser finalizada entre 12 e 18 meses após o acordo original, firmado em dezembro de 2025, e ainda depende de aprovações regulatórias nos Estados Unidos e na Europa, além do aval dos acionistas da Warner Bros. Discovery. Os conselhos de administração das duas empresas aprovaram o novo formato por unanimidade.

    Enquanto isso, a Paramount Skydance continua pressionando os acionistas com uma oferta hostil de US$ 108,4 bilhões, cerca de R$ 542 bilhões, também em dinheiro. A empresa chegou a entrar com uma ação judicial exigindo mais transparência sobre a avaliação da Discovery Global e anunciou a intenção de disputar o controle do conselho da companhia.

    David Zaslav, CEO da Warner Bros. Discovery, afirmou que o acordo aproxima “duas das maiores empresas de storytelling do mundo”. Já Ted Sarandos, co-CEO da Netflix, disse que a operação “oferece maior segurança financeira e ampliará o acesso global a conteúdos de TV e cinema”.
     
     

     

    Netflix pagará US$ 82 bilhões em dinheiro pela Warner para garantir compra

  • Reino Unido estuda proibição de redes sociais para crianças

    Reino Unido estuda proibição de redes sociais para crianças

    O Reino Unido iniciou uma consulta sobre o uso de redes sociais por crianças, avaliando possível proibição para menores, como na Austrália. O governo analisará evidências globais e enviará ministros ao país para entender sua política e orientar futuras decisões.

    O Reino Unido lançou nesta segunda-feira (20) uma consulta sobre redes sociais e crianças, incluindo a possibilidade de proibição do uso para menores de uma certa idade, restrição semelhante à adotada pela Austrália para crianças e adolescentes com menos de 16 anos, e uma orientação mais rígida às escolas sobre telefones celulares.

    O governo britânico anunciou que vai examinar evidências em todo o mundo sobre uma ampla gama de propostas, incluindo a análise da eficácia da proibição do uso de redes sociais para crianças e, caso adotada, a melhor forma de fazê-la funcionar.

     

    Ministros devem visitar a Austrália, que no mês passado tornou-se o primeiro país a proibir as redes sociais para menores de 16 anos, na esperança de aprender em primeira mão com a abordagem deles, disse comunicado.

     

    Reino Unido estuda proibição de redes sociais para crianças

  • Perfis do WhatsApp devem ganhar foto de capa, e testes começaram no iPhone

    Perfis do WhatsApp devem ganhar foto de capa, e testes começaram no iPhone

    Usuários de iPhone testam um novo recurso do WhatsApp que permite adicionar foto de capa ao perfil, com privacidade ajustável. A função, semelhante ao Facebook, ainda está em desenvolvimento e não tem previsão para Android

    SÃO PAULO, SP (CBS NEWS) – Donos de iPhone relatam que o WhatsApp criou a opção de adicionar uma foto de capa no perfil. O recurso ainda está em desenvolvimento, de acordo com o site especializado WaBetaInfo.

    O recurso funciona como a foto de capa no Facebook e adiciona uma camada de personalização no aplicativo de mensagens.

    O banner fica atrás da foto redonda de perfil e pode ser alterado por meio de um ícone em formato de lápis, no canto inferior direito da tela. É possível usar uma fotografia existente ou fazer um retrato na hora.

    A foto também terá nível de privacidade ajustável de acordo com as preferências do usuário, que poderá escolher deixá-la pública ou aparente apenas para seus contatos -como também é possível fazer com a foto de perfil.

    Fotos públicas podem ser usadas por estelionatários para aplicar golpes e tiradas de contexto com inteligência artificial.

    Por ora, o recurso só apareceu para testadores da versão do WhatsApp para iOS, o sistema operacional do iPhone.

    A Meta não respondeu se tem planos de levar o recurso para celulares Android nem indicou quando pretende fazer o lançamento oficial do recurso.

    A opção de usar uma foto de capa já está disponível no WhatsApp Business. Na versão para negócios, a imagem é pública por padrão.

    O usuário também tem a opção de remover a foto de capa depois de adicionar uma.

    Perfis do WhatsApp devem ganhar foto de capa, e testes começaram no iPhone

  • IA da Meta quebra regra da big tech e inclui foto de filha em propaganda direcionada à mãe

    IA da Meta quebra regra da big tech e inclui foto de filha em propaganda direcionada à mãe

    A imagem utilizada na peça publicitária é a mesma que aparece no perfil pessoal de Gabriela no Instagram. O uso de imagem de terceiros sem autorização prévia e expressa viola o entendimento do Superior Tribunal de Justiça (STJ) e também contraria as normas da própria Meta

    (CBS NEWS) – Um bug na plataforma de automação de anúncios da Meta, que utiliza inteligência artificial, fez com que uma empresa brasileira exibisse fotos da filha de uma usuária em uma peça publicitária voltada à venda de produtos para a pele. A jovem nunca autorizou o uso de sua imagem.

    O problema começou há cerca de 30 dias, quando a farmacêutica Fátima Costa, de 65 anos, percebeu que anúncios da marca de cuidados com a pele Principia, no Instagram, passaram a exibir fotos de sua filha, a jornalista da Folha Gabriela Mayer.

    A imagem utilizada na peça publicitária é a mesma que aparece no perfil pessoal de Gabriela no Instagram. O uso de imagem de terceiros sem autorização prévia e expressa viola o entendimento do Superior Tribunal de Justiça (STJ) e também contraria as normas da própria Meta, que proíbem o uso de dados sensíveis, como imagens de rosto, em anúncios.

    Funcionários da Meta ouvidos sob condição de anonimato afirmam que o episódio foi resultado de um erro na plataforma da empresa — uma “alucinação”, como é chamada no jargão da inteligência artificial. Segundo eles, o problema afeta apenas uma pequena parcela de usuários.

    A Principia afirma que nunca utilizou a imagem mencionada em seus materiais de divulgação. “Usamos apenas imagens com autorização de uso, diretamente com a Meta, sem envolvimento de agências. Questionamos a Meta assim que tivemos conhecimento desse caso e estamos aguardando uma posição quanto à autenticidade e à causa do possível uso dessa imagem nos anúncios”, informou a empresa.

    A marca utiliza a ferramenta Meta Advantage+ Creative, que promete editar automaticamente imagens e criar anúncios personalizados com base na forma como os usuários interagem com conteúdos publicitários. O anunciante define o objetivo da campanha, como ganhar seguidores, aumentar o engajamento ou ampliar as vendas.

    A Meta afirmou estar ciente do problema. “Estamos trabalhando para resolvê-lo o mais rápido possível”, disse a empresa.

    Pessoas com acesso ao departamento de soluções para negócios da Meta no Brasil negaram conhecimento sobre qualquer teste de ferramenta que exibisse fotos de conhecidos do público-alvo em anúncios. Segundo elas, a hipótese mais provável é a de um erro, já que a prática violaria as regras da própria companhia.

    A Principia reforça que trabalha exclusivamente com ferramentas da Meta, o que descartaria falhas em plataformas externas de personalização de anúncios. As edições feitas pela Advantage+ não aparecem na biblioteca de anúncios da Meta, o que dificulta a identificação das alterações realizadas automaticamente pela tecnologia.

    No caso relatado, mãe e filha se seguem mutuamente no Instagram, e Fátima afirma acessar com frequência o perfil de Gabriela. A farmacêutica destacou ainda que a imagem exibida no anúncio não estava armazenada em seu celular.

    Ao ver a propaganda pela primeira vez, Fátima pensou se tratar de um golpe financeiro, mas confirmou que o perfil utilizado era oficial da empresa.

    Nos contratos disponíveis ao público, a Meta se isenta de responsabilidade sobre textos ou imagens criados pela ferramenta Meta Advantage+. “Também não damos nenhuma garantia de que o conteúdo de anúncios será único e protegido por direitos de propriedade intelectual ou de que ele não violará os direitos de terceiros”, afirma a empresa em seus termos de uso.

    De acordo com as regras da Meta, caberia à Principia supervisionar os anúncios gerados por inteligência artificial a partir da ferramenta.

    Segundo a professora de direito digital da Universidade do Estado do Rio de Janeiro (Uerj), Chiara Teffe, ainda é possível discutir quem deve ser responsabilizado pelo uso indevido de imagem e de dados pessoais. Ela destaca que não há precedentes para situações desse tipo.

    Pela descrição oficial da Meta, a Advantage+ não deveria utilizar fotos sem autorização. A ferramenta é projetada para otimizar peças publicitárias previamente fornecidas ou autorizadas pelo anunciante, como anúncios antigos, posts da própria conta, imagens de catálogo ou materiais licenciados.

    O CEO da agência de marketing PX/Brasil, Rico Araújo, explica que a Advantage+ reaproveita automaticamente conteúdos que tiveram melhor desempenho, inclusive posts antigos ou imagens de banco já utilizadas pela empresa. “Se não houver uma governança clara desses ativos — especialmente no uso de imagens com pessoas — o algoritmo apenas escala algo que já estava permitido”, afirma.

    Já o CEO da Polaris Group, Fernando Moulin, diz que a Meta tem oferecido descontos a empresas que adotam a Advantage+, embora ainda exista cautela no mercado. “A Meta tem a melhor propaganda: ‘ninguém conhece melhor como as pessoas interagem com o anúncio do que a gente’”, diz.

    Outra vantagem da ferramenta seria a possibilidade de testar múltiplas versões de um mesmo anúncio sem demandar grande esforço operacional. Ainda assim, nenhum dos três publicitários ouvidos pela Folha afirmou utilizar a ferramenta para criação automática de peças. “Eu, particularmente, não tenho usado criativos automáticos porque não fica claro o que vai ser gerado”, diz Araújo.

    O caso se soma a outras controvérsias envolvendo o uso indevido de imagens e direitos autorais por sistemas de inteligência artificial. Como mostrou a Folha, ferramentas do tipo utilizaram obras de autores como Clarice Lispector, Chico Buarque e Paulo Coelho para treinar modelos de IA sem autorização ou remuneração, além de recorrer a cópias piratas disponíveis na internet. Também já há registros do uso de imagens de pessoas famosas em anúncios criados por inteligência artificial sem consentimento.
     
     

     

    IA da Meta quebra regra da big tech e inclui foto de filha em propaganda direcionada à mãe

  • Além de Grok, ChatGPT também tira roupa de pessoas sem consentimento

    Além de Grok, ChatGPT também tira roupa de pessoas sem consentimento

    No Brasil, é crime manipular, produzir ou divulgar conteúdo de nudez ou ato sexual falso gerado por inteligência artificial ou outros meios tecnológicos. O crime pode ser punido com reclusão de dois a seis anos, além de multa

    (CBS NEWS) – O ChatGPT atende a pedidos para editar fotos e retirar as roupas sem consentimento da pessoa fotografada, assim como faz o Grok, que passou a chamar a atenção de autoridades na Ásia e na Europa desde o início do ano por estar despindo mulheres e menores de idade.

    A plataforma da OpenAI trocou as roupas de pessoas por trajes de banho em testes feitos pela Folha. Foram usadas imagens do repórter e personagens feitos por IA no experimento, para evitar a exposição de terceiros. O ChatGPT só retirou as vestimentas, enquanto o Grok transformou o repórter em uma mulher e o exibiu em uma dança sensual, sem que houvesse instrução para isso.

    No Brasil, é crime manipular, produzir ou divulgar conteúdo de nudez ou ato sexual falso gerado por inteligência artificial ou outros meios tecnológicos. O crime pode ser punido com reclusão de dois a seis anos, além de multa. A pena é majorada se a vítima for mulher, criança, adolescente, pessoa idosa ou com deficiência.

    A OpenAI diz que bloqueia solicitações de geração de imagem que possam violar suas regras e que infrações recorrentes podem levar a perda da conta. Porém, a empresa disse que atualizou seu algoritmo recentemente para lidar com “sistemas excessivamente restritivos”.

    “Por exemplo, havia bloqueios de representações de amamentação ou adultos usando trajes de banho em contextos não sexualizados”, diz a empresa em nota. Ela também afirmou que aplica proteções para o uso não consensual de imagens, sem comentar os exemplos enviados pela reportagem.

    A xAI, por outro lado, disse que implementou medidas para evitar a edição de imagens reais de pessoas, que envolvessem “roupas reveladoras como biquinis”, após ameaças de punições das autoridades.

    O ChatGPT, diferentemente do Grok, não divulga as imagens que gera em uma rede social, de forma que todos possam ver. Isso, de acordo com especialistas em segurança da informação, torna mais difícil medir a quantidade de imagens íntimas geradas pelo chatbot da OpenAI.

    Mesmo que não exista nudez completa, a geração de imagens em roupa de banho se enquadra no entendimento jurídico de divulgação de fotos íntimas, diz a diretora de pesquisa do InternetLab Clarice Tavares. “Além da violação do consentimento dessas pessoas, nos casos em que temos visto [no Grok], existe uma intencionalidade de sexualização.”

    Em decisão de 2020, o STJ (Superior Tribunal de Justiça) julgou culpado um homem que divulgou fotos de sua ex-namorada em roupas de banho. “Mesmo que não fosse um caso de nudez total, houve uma intenção de vingança na divulgação daquelas fotos íntimas”, afirma Tavares.

    O cientista da computação argentino Marcelo Rinesi, que participou dos primeiros testes do Dall-E, o modelo predecessor ao ChatGPT Images, lembra que o risco de que o modelo gerasse pornografia não consentida era uma das principais preocupações da OpenAI.

    “Essa é uma das regras básicas de segurança e privacidade em qualquer tecnologia, desde a fotografia. O que é específico dessa tecnologia é a capacidade de gerar uma imagem erótica de uma pessoa qualquer apenas com uma foto e quase sem custo”, afirma Rinesi.

    De acordo com o CEO da OpenAI, Sam Altman, a empresa escolheu mudar suas diretrizes por causa de reclamações de usuários sobre a aplicação muito estrita das normas. As mudanças, disse ele dias antes da mudança, visaram “garantir liberdade intelectual”.

    A geração de imagens íntimas sem consentimento teve uma explosão neste ano, quando usuários do X perceberam que era possível usar o Grok com esse objetivo. Entre os dias 5 e 6 de janeiro, a IA de Musk, que publica na rede social por meio da conta @Grok, gerou 6.700 imagens por hora que foram identificadas como sexualmente sugestivas ou de nudez, de acordo com uma análise divulgada pela Bloomberg feita por Genevieve Oh, uma pesquisadora independente de redes sociais.

    Os outros cinco principais sites dedicados à geração de imagens com IA tiveram uma média de 79 novas imagens de nudez por IA por hora em um período de 24 horas.

    Enquanto o Grok, por escolha de seus desenvolvedores, não impunha limites aos usuários, o ChatGPT apresenta algumas salvaguardas. Porém, é possível driblá-las com alterações no comando. A Folha não vai explicar como fez isso para evitar a reprodução da prática.

    Em sites de fórum, como o Reddit, pessoas compartilham informações de como gerar imagens sexualizadas em plataformas de IA como o Grok, o ChatGPT, e o Gemini do Google. A revista especializada Wired encontrou páginas com dicas de como usar os modelos para despir mulheres reais.

    Após o contato da revista, o Reddit retirou esses tópicos do ar, afirmando que eles infringiram suas regras.

    Outros concorrentes como Gemini, do Google, e Meta AI, da Meta, não geraram roupas de pessoas reais em biquinis.

    COMO PROTEGER SEUS DADOS

    A empresa de cibersegurança Eset afirma que é preciso redobrar o cuidado com quais imagens são tornadas públicas, por meio, por exemplo, de publicação em redes sociais. Desde que ferramentas como o Grok, o ChatGPT e o Gemini, do Google, receberam a habilidade de editar fotos, qualquer um com poucas instruções em português básico pode tirar uma imagem de contexto.

    Veja cuidados para evitar que suas fotos sejam manipuladas com IA: Verifique as fotos que você mantém online Evite publicar fotos de menores de idade Se possível, mantenha as suas páginas privadas

    Use a ferramenta do Google para checar se seus dados pessoais vazaram na internet Também é possível impedir, nas configurações, que a xAI use as imagens que você publicar no desenvolvimento das futuras versões do Grok

    Além de Grok, ChatGPT também tira roupa de pessoas sem consentimento