ARTFEED — Contemporary Art Intelligence

NoisyCoconut: Migliorare l'affidabilità dei LLM tramite ragionamento nello spazio latente

ai-technology · 2026-05-12

Un nuovo metodo a tempo di inferenza chiamato NoisyCoconut migliora l'affidabilità dei modelli linguistici di grandi dimensioni (LLM) manipolando le rappresentazioni interne senza riaddestramento. L'approccio inietta rumore controllato nelle traiettorie latenti per generare percorsi di ragionamento diversi; l'accordo unanime tra questi percorsi funge da segnale di confidenza, consentendo ai modelli di astenersi quando incerti. Gli esperimenti dimostrano efficaci compromessi copertura-precisione su diversi benchmark di ragionamento, senza richiedere accesso ai dati di addestramento o modifiche ai parametri. Ciò fornisce un percorso pratico per migliorare l'affidabilità degli output dei LLM mantenendo la compatibilità con i modelli esistenti.

Fatti principali

  • NoisyCoconut è un metodo a tempo di inferenza per LLM
  • Inietta rumore controllato nelle traiettorie latenti
  • Dall'iniezione di rumore vengono generati percorsi di ragionamento diversi
  • L'accordo tra i percorsi fornisce un segnale di confidenza
  • I modelli possono astenersi quando incerti
  • Nessun riaddestramento o dati di addestramento richiesti
  • Dimostrati efficaci compromessi copertura-precisione
  • Compatibile con modelli esistenti

Entità

Fonti