SEGURANÇA DAS LLMS NA EDUCAÇÃO: PERIGOS, VULNERABILIDADES E ESTRATÉGIAS PARA A CAPACITAÇÃO DE EDUCADORES



SEGURANÇA DAS LLMS NA EDUCAÇÃO: PERIGOS, VULNERABILIDADES E ESTRATÉGIAS PARA A CAPACITAÇÃO DE EDUCADORES
Giullia Vital Antunes

30/12/2025
146-169
8
No ambiente educacional, o uso de grandes modelos de linguagem (LLMs) e agentes autônomos de inteligência artificial está crescendo rapidamente, afetando diretamente a formação de professores e os ambientes de aprendizagem. No entanto, essas tecnologias emergentes também trazem grandes riscos. Neste capítulo, exploramos vulnerabilidades, incluindo injeção de prompt, exfiltração de dados, alucinações e quebra de restrições em LLMs aplicados a professores, alunos ou sistemas educacionais. Alguns exemplos reais e fictícios são oferecidos, juntamente com medidas de mitigação independentes de nuvem, como firewalls de prompt, filtros de conteúdo, sistemas de prevenção de vazamento de dados (DLP) e políticas de acesso mínimo. E o objetivo é fornecer conselhos tanto técnicos quanto pedagógicos para professores, desenvolvedores educacionais e pesquisadores que estão preocupados com a implementação segura da IA na educação.
Ler mais...Inteligência Artificial; Educação; Segurança da Informação; Formação Docente; Tecnologias Emergentes
Esta obra está licenciada com uma Licença Creative Commons Atribuição-NãoComercial-SemDerivações 4.0 Internacional .

O conteúdo dos capítulos e seus dados e sua forma, correção e confiabilidade, são de responsabilidade exclusiva do(s) autor(es). É permitido o download e compartilhamento desde que pela origem e no formato Acesso Livre (Open Access), com os créditos e citação atribuídos ao(s) respectivo(s) autor(es). Não é permitido: alteração de nenhuma forma, catalogação em plataformas de acesso restrito e utilização para fins comerciais. O(s) autor(es) mantêm os direitos autorais do texto.

