10 motivi: perché ChatGPT e Claude non possono rispondere in modo affidabile a domande legali

ChaGPT e Claude o altri modelli di fondazione da soli non saranno mai in grado di rispondere alle tue domande legali in modo affidabile.
Le ragioni di ciò sono:
- Nessuna verifica legale
Le risposte non sono state verificate dagli avvocati e possono essere professionalmente errate o fuorvianti.
- Nessun accesso ai testi legali e alle sentenze correnti
I modelli funzionano con i dati di formazione, non con fonti ufficiali costantemente aggiornate come le sentenze dell'OR, dello ZGB o dei tribunali federali.
- Mancanza di conoscenza contestuale del diritto svizzero
I sistemi legali sono locali. I modelli di fondazione si basano spesso sul diritto statunitense o globale, non su specifiche svizzere.
- allucinazioni (= risposte sbagliate)
Le modelle «inventano» risposte quando non sono sicure: questo è molto rischioso nel settore legale.
- Nessuna responsabilità o tracciabilità
Non vi è alcuna responsabilità o documentazione legale sul modo in cui è arrivata una risposta.
- Non sempre aggiornato
I modelli non sono a conoscenza di modifiche legislative o nuove sentenze in base al loro livello di formazione (ad esempio ChatGPT alla fine del 2023).
- Problemi di protezione dei dati in casi sensibili
Per questioni legali riservate, nessun testo può essere semplicemente inserito in un modello di intelligenza artificiale generico.
- Mancanza di dettagli e sfumature
Le risposte legali richiedono spesso interpretazioni differenziate: i modelli di solito emettono testi standard superficiali.
- Nessuna citazione o base legale
I modelli di fondazione non forniscono articoli legislativi diretti, paragrafi o sentenze dei tribunali: non sai su cosa si basano.
10° Non sostituisce la consulenza legale
Ciò che conta in contesti legali è: affidabilità, tracciabilità e usabilità in tribunale. I modelli Foundation non lo offrono.