Openi sta rilasciando modelli AI di nuovi generatori oggi e NO, GPT -5 non è uno di questi. Questi nuovi modelli possono essere più interessanti a seconda di come ti senti riguardo all’IA del generatore. La società sta lanciando GPT -120B e GPT -os -20b, il primo Modello a peso aperto Dalla pubblicazione di GPT -2 nel 2019, è possibile scaricare ed eseguire questi modelli sul proprio hardware con logica, attrezzatura e supporto simulati per la personalizzazione profonda.
Quando si accede ai modelli di proprietà dell’azienda nel cloud, stanno eseguendo un’infrastruttura server forte che non può essere facilmente replicata in azienda. I nuovi modelli OpenAI arrivano a due varianti (120b e 20b) per funzionare in una configurazione hardware meno potente. Entrambi sono trasformatori, impostazioni inferiori, medie e alte con catena configurabile di THT (COT). Mentre le impostazioni più basse utilizzano risorse di calcolo rapide e basse, gli output sono migliori con l’impostazione più alta. È possibile impostare lo strato di lettino con una singola riga sul prompt del sistema.
Il piccolo GPT-OS-20B ha un totale di 21 miliardi di parametri, che utilizza una miscela (MOE) per ridurre i parametri di 3,6 miliardi di parametri per token. Come GPT -120b, i suoi 117 miliardi di parametri scendono a 5,1 miliardi per token con MOE. La società ha affermato che il modello più piccolo può funzionare su una macchina a livello di cliente con 16 GB o più memoria. Per eseguire GPT -OS -120b, è necessario memoria di 80 GB, che sei più della macchina del cliente media. Sebbene dovrebbe adattarsi a una singola GPU dell’acceleratore di intelligenza artificiale come Nvidia H1. Entrambi i modelli hanno una finestra di contesto di 128.000 token.
Il team ha affermato che gli utenti di GPT-OS possono aspettarsi forti prestazioni come i suoi migliori modelli basati su cloud. Nella maggior parte degli esami, il più grande dei modelli di proprietà O3 e O4-Mini è una piccola versione della versione più piccola. È più vicino alle opere di matematica e codifica. Nell’ultimo esame dell’umanità basata sulla conoscenza e del 3 24,9 per cento (comprese le attrezzature), quando GPT-OS-120B gestisce solo il 19 percento. Per fare un confronto, il top Jemi Deep di Google pensa che arrivi il 34,8 per cento in quel test.















