Un nuovo trucco utilizza l’IA per fare il jailbreak dei modelli di intelligenza artificiale, inclusa GPT-4

Gli algoritmi avversari possono sondare sistematicamente grandi modelli di linguaggio come il GPT-4 di OpenAI per ind...