Estudo demonstra que é possível enganar os assistentes de IA para que façam o que lhes é proibido
A forma como o prompt é redigido é determinante para enganar um modelo de linguagem grande e fazer com que ele forneça informações que, em teoria, lhe são proibidas. Os testes foram realizados com os modelos que equipam os principais chatbots do mercado.







