Vorresti più informazioni intelligenti nella tua scatola in arrivo? Iscriviti solo alle nostre newsletter settimanali per ottenere la cosa importante per l’intelligenza artificiale aziendale, i dati e i leader della sicurezza. Iscriviti ora


Tiktok sta tornando di nuovo oggi La Casa Bianca si è unita alla popolare applicazione dei social media – ma la società madre ByteUn gigante del web cinese ha anche annunciato una sorpresa.

Azienda Team di sementi di ricercatori di intelligenza artificiale Oggi, Seed-Ooss-36b è stato rilasciato Sito Web di condivisione del codice AI che abbraccia la faccia.

Seed-Ooss-36B, nuova linea open source, grandi modelli di linguaggio (LLM) progettati per il ragionamento avanzato (LLM) e l’usabilità orientata agli sviluppatori Contesto di monete più lungo – Quindi, quante informazioni possono accettare i modelli come input, e poi sono usciti con un singolo cambiamento – Molti concorrenti di società tecnologiche statunitensiAnche leader come Openai e Antropics.

La collezione offre tre varianti principali:


Ai Stroops sui limiti di ridimensionamento

I limiti di potenza, l’aumento dei costi dei marcatori e le inferenze ritardi rimodellano AI aziendale. Unisciti alla nostra sala privata per scoprire come sono le migliori squadre:

  • Trasformare l’energia in un vantaggio strategico
  • Architetto efficiente deduzione per guadagni di resa reale
  • Aprire lo sblocco di un rendimento degli investimenti competitivi con sistemi AI sostenibili

Assicurati il tuo posto dove stare in futuro: https://bit.ly/4mwgngo


  • Seed-Ooss-36B-Base Con dati sintetici
  • Seed-Ooss-36B-Base Senza dati sintetici
  • Seed-Ooss-36b

Durante il rilascio di versioni sia sintetiche che non sintetiche del modello seed-ooss-36b-base, il team di seed ha cercato di bilanciare le loro prestazioni pratiche con flessibilità di ricerca.

. Variante sintetica-veri, Addestrato con ulteriori dati di insegnamento, costantemente Dà punti più forti nei criteri standard Ed è progettato come un’opzione generale per le prestazioni più elevate.

. Modello non sintetico, Al contrario, salta da questi magnioni e una fondazione più pulita che impedisce il potenziale pregiudizio o il deterioramento È stato introdotto con dati di insegnamento sintetico.

Fornendo entrambi, il team consente agli utenti applicati risultati avanzati, mentre i ricercatori proteggono una linea di base neutra per esaminare i metodi di post -trattamento.

Nel frattempo, Modello seed-ooss-36b-roying Differisce Allenato con i dati sulle istruzioni Dare priorità al seguace del compito e dell’insegnamento invece di servire come modello base.

Tutti e tre i modelli sono pubblicati con la licenza Apache-2.0 e consentono l’uso, il cambiamento e la ridistribuzione gratuiti da parte di ricercatori e sviluppatori che lavorano per le aziende.

Ciò significa Possono essere utilizzati per rafforzare le applicazioni commerciali interne o esterne/customer-sequence di una società senza pagare alcuna tassa di licenza o per l’uso dell’interfaccia di programmazione delle applicazioni (API).

Questo continua Estate 2025 tendenza delle aziende cinesi che inviano forti modelli open source Openi sta cercando di catturare il proprio duetto GPT-OH open source lanciato all’inizio di questo mese.

Posizioni della squadra di semi Seed-out per applicazioni internazionaliSottolineare la versatilità tra ragionamento, attività simile all’agente e impostazioni multilingue.

Il team di seed, che è stato istituito nel 2023, si è concentrato sulla creazione di modelli di base che possono servire sia alla ricerca che all’uso.

Design e caratteristiche di base

La modellizzazione del linguaggio causale e causale dietro il seme-ooss-36b combina opzioni di design familiari come l’attenzione della query grottata, l’attivazione di Swiglu, la codifica posizionale RMSNORM e la corda.

Ogni modello trasporta 36 miliardi di parametri in 64 livelli e supporta il vocabolario di 155.000 monete.

Una delle caratteristiche determinanti, Funzione locale di kontext lungo con un massimo di 512.000 monete lunghezza, È progettato per elaborare documenti ampliati e catene di ragionamento senza perdita di prestazioni.

Questo è il doppio della nuova famiglia GPT-5 di Openi e Circa 1.600 pagine equivalenti al testo, La lunghezza di una Bibbia cristiana.

Un altro elemento distintivo è anche Budget di pensieroPermette agli sviluppatori di determinare quanto dovrebbe ragionare il modello prima di dare una risposta.

È qualcosa che vediamo dagli altri nuovi modelli open source di Nvidia, tra cui il nuovo Nemotron-Nano-9B-V2. Disponibile sul volto dell’abbraccio.

In pratica, ciò significa che i team possono adeguare le prestazioni a seconda della complessità del compito e dei requisiti di produttività della distribuzione.

I budget sono raccomandati sui piani di 512 monete, 0 fornisce la modalità di risposta diretta/

Prestazioni competitive in misurazioni di terze parti

Confronti pubblicati con la posizione di rilascio di Seed-Ooss-36B tra più potenti modelli open source. La variante di istruzione, in particolare, pubblica gli ultimi risultati della tecnologia in più di un campo.

  • Matematica e ragionamento: Seed -urs-36b 91,7 per cento in AIME24 E 65 In BeyondAimeEntrambi rappresentano -source “State -f -the -t -art (souge).
  • Coding: Record del modello in Livecodebench V6 67.4Un altro punteggio Sota.
  • Kontext lungo usando: 128k contenuti in lunghezza sovrano 94.6Contrassegnare il più alto risultato open source riportato.
  • Performance del modello di base: La base sintetica-veri offre la variante 65.1 in MMLU-PRO E 81.7 MatematicaSi traduce in entrambe le categorie di stato -ef -the -art.

La versione di base non sintetica dimostra che è competitiva in sé, sebbene sia leggermente dietro molte misure.

Ct GPQA-D funziona meglio dell’equivalente sintetico, Per fornire ai ricercatori una linea base più pulita e non istruita per l’esperimento.

Questi risultati per le aziende che confrontano le opzioni aperte Seed-out di stima offre un forte potenziale in carichi di lavoro ponderati in matematica, codifica e lunghi. Mentre la ricerca offre ancora flessibilità per l’uso.

Accesso e distribuzione

Oltre alle prestazioni, il team SEED enfatizza l’accessibilità per sviluppatori e professionisti. Modelli L’abbraccio può essere distribuito usando trasformatori faccialicon Supporto alla nitidezza in entrambi i formati a 4 bit e 8 -bit Per ridurre i requisiti di memoria.

Anche loro Integrato con VLLM per porzione scalabileinclusi esempi di configurazione e istruzioni del server API.

Contiene lo script per l’estrazione di team, la rapida privatizzazione e l’integrazione del veicolo per ridurre ulteriormente le barriere.

Per Leader tecnici che gestiscono piccoli team o lavorano sotto restrizioni di bilancioQueste disposizioni sono posizionate per rendere più accessibili 36 miliardi di parametri.

Licenze e problemi per i decisori aziendali

Con i modelli presentati ai sensi di Apache-2.0, le organizzazioni possono adottarli senza termini di laurea restrittivi, il che è un fattore importante per i team che bilanciano preoccupazioni legali e operative.

Per la decisione -Il produttori che valutano il panorama open source, il rilascio porta tre pacchetti:

  • Matematica, codifica e i più recenti criteri tecnologici durante il ragionamento a lungo contesto.
  • Un equilibrio tra modelli addestrati sintetici ad alte prestazioni e linee di base di ricerca pulite.
  • Accessibilità, caratteristiche che riducono il carico operativo per i team di ingegneria snella.

Il team di seed di Bytedance, con una licenza aperta di prestazioni forti e implementazione flessibile, ha aggiunto nuove opzioni per aziende, ricercatori e sviluppatori.


Collegamento alla fonte