LLM per Specifica e Verifica in Linguaggio Naturale
I ricercatori stanno esplorando l'uso di modelli linguistici di grandi dimensioni (LLM) per generare specifiche e verificare codice utilizzando il linguaggio naturale, anziché linguaggi formali. Questo approccio mira a prevenire che il codice generato dagli LLM contenga vulnerabilità di sicurezza. I risultati preliminari sono promettenti, sebbene i precedenti tentativi di sintetizzare specifiche formali con gli LLM abbiano avuto un successo limitato. Lo studio si concentra sulla verifica composizionale delle implementazioni rispetto a specifiche in linguaggio naturale.
Fatti principali
- I recenti LLM all'avanguardia mostrano ottime prestazioni nell'identificare vulnerabilità di sicurezza in grandi sistemi open-source.
- L'obiettivo è impedire che gli LLM producano implementazioni vulnerabili.
- La verifica formale richiede tipicamente specifiche in linguaggio formale rigido.
- I lavori precedenti sull'uso degli LLM per sintetizzare specifiche formali hanno avuto un successo limitato.
- Questo articolo indaga l'uso degli LLM sia per la generazione di specifiche che per la verifica in linguaggio naturale.
- L'approccio utilizza la verifica composizionale.
- I risultati preliminari suggeriscono che l'approccio è promettente.
Entità
Istituzioni
- arXiv