Ultime polemiche in merito GoogleIl modello Gemma di ha evidenziato ancora una volta i pericoli derivanti dall’utilizzo di modelli di test per sviluppatori e la natura temporanea della disponibilità dei modelli.
Google ha tirato Modello Gemma3 Modello Gemma della senatrice Marsha Blackburn (R-Tenn.) di AI Studio bugie deliberatamente allucinate su di lui. Blackburn ha detto che la modella inventava storie su se stessa che andavano oltre le “innocue allucinazioni” e fungevano da atto diffamatorio.
In risposta a ciò, Google Pubblicato su X Il 31 ottobre ha annunciato che avrebbe rimosso Gemma da AI Studio, affermando che ciò era “per evitare confusione”. Gemma rimane disponibile tramite API.
È disponibile anche tramite AI Studio dell’azienda. "uno strumento per sviluppatori (devi effettivamente dimostrare di essere uno sviluppatore per usarlo). Ora abbiamo visto segnalazioni di non sviluppatori che cercano di utilizzare Gemma in AI Studio e di farle domande vere. Non abbiamo mai inteso che questo fosse o fosse utilizzato come veicolo o modello di consumo. Per evitare questa confusione, l’accesso a Gemma non è più disponibile in AI Studio."
Per essere chiari, Google ha il diritto di rimuovere il proprio modello dalla propria piattaforma, soprattutto se le persone rilevano allucinazioni e bugie che possono proliferare. Sottolinea inoltre il pericolo di fare affidamento principalmente su modelli empirici e il motivo per cui gli sviluppatori aziendali dovrebbero salvare i progetti prima che i modelli di intelligenza artificiale vengano deprecati o rimossi. Le aziende tecnologiche come Google continuano ad affrontare controversie politiche che spesso influiscono sulla loro distribuzione.
VentureBeat ha contattato Google per ulteriori informazioni ed è stato indirizzato al loro post del 31 ottobre. Abbiamo anche contattato l’ufficio del senatore Blackburn; In una dichiarazione, Blackburn ha ribadito la sua posizione secondo cui le società di intelligenza artificiale “dovrebbero essere chiuse (modellate) finché non si verifica”."
Esperimenti degli sviluppatori
La famiglia dei modelli Gemma comprende: Versione dei parametri 270MÈ più adatto per app e attività piccole e veloci che possono essere eseguite su dispositivi come smartphone e laptop. Google ha affermato che i modelli Gemma sono “progettati specificamente per gli sviluppatori e la comunità di ricerca e non sono destinati all’assistenza basata sui fatti o all’uso da parte dei consumatori”.
Tuttavia, anche i non sviluppatori possono accedere a Gemma perché Piattaforma AIStudioRispetto a Vertex AI, è uno spazio più adatto ai principianti in cui gli sviluppatori possono sperimentare i modelli di intelligenza artificiale di Google. Quindi, anche se Google non avesse mai previsto che Gemma e AI Studio fossero accessibili al personale del Congresso, tali situazioni potrebbero comunque verificarsi.
Mostra inoltre che, man mano che i modelli continuano a migliorare, continuano a produrre informazioni imprecise e potenzialmente dannose. Le aziende devono valutare costantemente i vantaggi derivanti dall’utilizzo di modelli come Gemma rispetto alle loro potenziali insidie.
Continuità del progetto
Un’altra preoccupazione è il controllo che le società di intelligenza artificiale hanno sui loro modelli. Il detto “Non possiedi nulla su Internet” rimane vero. Se non disponi di una copia fisica o locale del software, è facile perderne l’accesso se l’azienda proprietaria decide di portartelo via. Google non ha chiarito con VentureBeat se i progetti esistenti nell’AI Studio basato su Gemma sarebbero stati registrati.
Allo stesso modo, OpenAI Gli utenti sono rimasti delusi quando la società ha annunciato che lo avrebbe fatto rimuovere i vecchi modelli popolari su ChatGPT. Anche dopo aver ritrattato la sua dichiarazione e GPT-4o si sta riattivando Tornando a ChatGPT, il CEO di OpenAI Sam Altman continua a rispondere alle domande sul mantenimento e sul supporto del modello.
Le aziende di intelligenza artificiale possono e dovrebbero rimuovere i loro modelli se creano risultati dannosi. I modelli di intelligenza artificiale, non importa quanto siano maturi, continuano ad avanzare e sono in costante evoluzione e miglioramento. Ma poiché sono di natura sperimentale, i modelli possono facilmente diventare strumenti che le aziende tecnologiche e le autorità di regolamentazione possono sfruttare. Gli sviluppatori aziendali devono garantire che il loro lavoro possa essere salvato prima che i modelli vengano rimossi dalle piattaforme.














