Per commettere errori del sistema AI, che gli umani mancano che il sistema legale americano sia stato eseguito in ritardo. Quando gli avvocati hanno presentato documenti citando casi che non erano presenti, le pholie sono iniziate. Errori simili si sono presto diffusi ad altri ruoli in tribunale. Lo scorso dicembre, un professore di Stanford ha presentato una testimonianza di giuramento con allucinazioni ed errori in un caso, nonostante sia un esperto di intelligenza artificiale e disinformazione.
Ora, i giudici stanno anche sperimentando l’intelligenza artificiale generica. Alcuni credono che con le precauzioni corrette, la tecnologia possa accelerare la ricerca legale, brevemente casi, elaborare ordini regolari e nel complesso il sistema giudiziario accelera il sistema giudiziario, che è gravemente ritirato in molte parti degli Stati Uniti. Hanno ragione ad essere così fiduciosi in questo? Leggi la storia completa.
-Jams O’Donnell
Quello che devi aver perso su GPT-5
Il nuovo modello GPT-5 di Openai è stato uno sguardo alla nuova frontiera più recente di AI. Questo è stato per segnare un salto verso “intelligenza generale artificiale” che avrebbe promesso di cambiare l’umanità meglio.
Contro tali aspettative, il modello è per lo più sopraffatto. Ma c’è un’altra questione da prendere tutto questo. Tra gli altri suggerimenti per i potenziali usi dei loro modelli, Openi ha chiaramente iniziato le persone che chiedono alle persone di usarli per consigli sulla salute. Questo è un cambiamento nell’approccio che indica che la società sta andando in acqua pericolosa. Leggi la storia completa.
-Jams O’Donnell
La storia è apparsa originariamente nel nostro giornale settimanale sull’algoritmo, AI. Primo per ottenere tali storie nella tua casella di posta, Iscriviti qui,