Meta Ai Docos internos expostos, permitindo que os chatbots flertem com crianças
NOVOAgora você pode ouvir artigos da Fox News!
A empresa de Tech Bro Mark Zuckerberg foi apanhada em um dos escândalos mais perturbadores até agora. A Reuters descobriu um meta -documento interno que permitiu que seus chatbots da IA flertassem com crianças e se envolvessem em conversas sensuais. A revelação provocou indignação e meta apenas reverteu o curso depois de ser pego.
Inscreva -se para o meu relatório gratuito do Cyberguy
Obtenha minhas melhores dicas de tecnologia, alertas de segurança urgentes e ofertas exclusivas entregues diretamente à sua caixa de entrada. Além Cyberguy.com/newsletter

Threads App Logo em uma tela de smartphone com o logotipo meta acima dele. (Kurt “Cyberguy” Knutsson)
A política de meta ai permitiu que os chatbots flertassem com as crianças
De acordo com os padrões internos de “Risco de Conteúdo”, as equipes legais, políticas e de engenharia da Meta assinaram as regras do Chatbot que o tornaram aceitável para os bots descrever uma criança como “uma forma jovem de arte” ou se envolver em papéis românticos com menores. Pior ainda, as diretrizes deram espaço para chatbots para depreciar pessoas por raça e espalhar falsas reivindicações médicas. Isso não foi um bug. Essas foram regras aprovadas até que a Meta enfrentasse perguntas. Uma vez que a Reuters começou a perguntar, a empresa lavou rapidamente as seções ofensivas e afirmou que havia sido um erro.
Meta adiciona recursos de segurança para adolescentes ao Instagram, Facebook
Entramos em contato com a Meta, e um porta -voz forneceu esta declaração ao Cyberguy:
“Temos políticas claras sobre que tipo de respostas os caracteres de IA podem oferecer, e essas políticas proíbem o conteúdo que sexualizam as crianças e a dramatização sexual entre adultos e menores. Separados das políticas, existem centenas de exemplos e anotações e que refletem que as equipes são que se acumulam e os que se ilumam.

Meta disse ao Cyberguy que suas políticas de IA proíbem o conteúdo que sexualiza as crianças. (Kurt “Cyberguy” Knutsson)
Big Tech lança lucro sobre a segurança das crianças
Vamos chamar isso de que é. Meta não parou isso por conta própria. Só agiu quando exposto. Isso mostra as prioridades da Big Tech: dinheiro, engajamento e manter as crianças coladas nas telas. Segurança? Nem mesmo no radar até que alguém apite. A Meta mostrou repetidamente que não poderia se importar menos com o bem-estar de seus filhos. Trata -se de maximizar o tempo on -line, atrair usuários mais jovens e monetizar todos os cliques. Este último escândalo prova mais uma vez que os pais não podem confiar em empresas de tecnologia para proteger as crianças.
O Congresso pressiona a Meta para explicar as regras perturbadoras da IA
O senador Josh Hawley e um grupo bipartidário no Congresso estão exigindo que a Meta fique limpa. Os legisladores querem saber como e por que essas políticas obtiveram aprovação. Hawley pediu à Meta que liberasse todos os documentos internos e explique por que os chatbots foram autorizados a simular flertar com crianças. A Meta insiste que “corrigiu” o problema, mas os críticos argumentam que essas correções só vieram depois que foram expostas. Até que os regulamentos reais cheguem, os pais estão por conta própria.

Um grupo bipartidário de legisladores está exigindo que a meta liberasse documentos internos e explique por que os chatbots foram autorizados a simular flertar com crianças. (Kurt “Cyberguy” Knutsson)
Meta enfrenta reação à política de IA que permite que os bots tenham conversas ‘sensuais’ com crianças
Como os pais podem proteger os filhos de chatbots arriscados de AI
Enquanto o Congresso investiga, as famílias precisam tomar medidas imediatas para proteger seus filhos dos perigos expostos no escândalo de IA da Meta.
1) Nenhum acesso não supervisionado aos chatbots da AI
As crianças nunca devem ter acesso gratuito aos chatbots da IA, incluindo meta ai. Os documentos internos mostram que esses sistemas podem atravessar limites que nenhum pai aprovaria. A supervisão é a primeira linha de defesa.
2) Ligue os controles dos pais em todos os dispositivos
Habilite os controles dos pais em telefones, tablets e computadores. Essas ferramentas oferecem mais visibilidade e limite o acesso a aplicativos de risco, onde conversas inadequadas de chatbot podem acontecer.
3) Converse com crianças regularmente sobre IA e perigos online
As Meta Revelações provam que a IA pode ir a lugares que os pais nunca esperariam. Conversas em andamento com seus filhos sobre o que é seguro e o que não está online são essenciais para a proteção deles.
4) Use ferramentas de filtragem de conteúdo para bloquear aplicativos arriscados
Aplicativos como a casca permitem que os pais bloqueie ou filmem certos programas onde as interações de IA podem passar. Com as empresas de tecnologia que não conseguem policiar, as ferramentas de filtragem dão aos pais mais controle.
Leia mais aqui: Os dados do seu filho estão em disputa? Os perigos ocultos da tecnologia da escola
5) Instale um forte software antivírus em todos os dispositivos familiares
Embora o software antivírus não pare de flertar com a IA, ele adiciona uma camada de segurança muito necessária. Hackers e maus atores costumam atingir as crianças através dos mesmos dispositivos em que os chatbots vivem, de modo que a proteção de toda a família é importante. A melhor maneira de proteger de links maliciosos que instalam malware, potencialmente acessando você e sua família, é ter um forte software antivírus instalado em todos os seus dispositivos. Essa proteção também pode alertá -lo sobre e -mails de phishing e golpes de ransomware, mantendo suas informações pessoais e ativos digitais em segurança.
Obtenha minhas escolhas para os melhores vencedores de proteção antivírus 2025 para seus dispositivos Windows, Mac, Android & iOS em Cyberguy.com/lockupyourtech
Essas etapas não resolvem completamente o problema, mas dão aos pais mais poder em um momento em que a grande tecnologia parece não querer colocar a segurança das crianças em primeiro lugar.
O novo chatbot da Meta AI levanta alarmes
O que isso significa para você
Se você pensou que os chatbots eram divertidos, pense novamente. Os próprios documentos da Meta provam que seus bots de IA foram autorizados a atravessar linhas perigosas com crianças. Os pais agora devem assumir um papel proativo no monitoramento da tecnologia, porque a Big Tech não protegerá seus filhos até forçar.
As principais toca de Kurt
O escândalo de Meta mostra mais uma vez por que a confiança cega no Vale do Silício é perigosa. A IA pode ser poderosa, mas sem responsabilidade, torna -se uma ameaça. O Congresso pode pressionar por respostas, mas os pais devem ficar um passo à frente para proteger seus filhos.
Você acha que grandes empresas de tecnologia como a Meta devem ser confiáveis para se policiar quando a segurança das crianças está em risco? Informe -nos escrevendo para nós em Cyberguy.com/contact
Inscreva -se para o meu relatório gratuito do Cyberguy
Obtenha minhas melhores dicas de tecnologia, alertas de segurança urgentes e ofertas exclusivas entregues diretamente à sua caixa de entrada. Além Cyberguy.com/newsletter
Copyright 2025 Cyberguy.com. Todos os direitos reservados.
FonteFox News



Publicar comentário