Prompt Injection: uma ameaça silenciosa à segurança em IA
A prompt injection compromete a segurança de um dos tipos de IA mais utilizados, os LLM (Large Language Model), ao manipular respostas e acesso a dados, gerando riscos críticos para a inteligência artificial e a cibersegurança.
Fabiana Ramírez Cuenca • 02 Jan 2025