Vorresti più informazioni intelligenti nella tua scatola in arrivo? Iscriviti solo alle nostre newsletter settimanali per ottenere la cosa importante per l’intelligenza artificiale aziendale, i dati e i leader della sicurezza. Iscriviti ora
Aperto Ha costruito una superficie rara giovedì, improvvisamente ha lasciato una funzione che ha permesso Chatgpt utenti Fai scoprire i tuoi discorsi tramite Google e altri motori di ricerca. La decisione è arrivata dalle diffuse critiche sui social media in poche ore e rappresenta un esempio sorprendente di quanto rapidamente le preoccupazioni delle preoccupazioni possano rimuovere rapidamente gli esperimenti di intelligenza artificiale ben intenzionati.
Openi’s “esperimento a breve durata“Richiede agli utenti di scegliere attivamente condividendo una conversazione e quindi cercando una scatola. Tuttavia, sottolinea rapidamente una sfida fondamentale che le aziende di intelligenza artificiale devono affrontare: bilanciare i potenziali benefici delle informazioni condivise con rischi reali di esposizione indesiderata dei dati.
Abbiamo appena rimosso una funzione @Chatgptapp Ciò ha permesso agli utenti di fare le loro conversazioni scoperte dai motori di ricerca come Google. Questo è stato un esperimento di breve durata per aiutare le persone a scoprire conversazioni utili. Questa funzione ha richiesto agli utenti di partecipare prima a una chat … pic.twitter.com/mgi3lf05ua
– Danξ (@CRYPS1S) 31 luglio 2025
Migliaia di un discorso speciale su chatgpt sono stati i risultati di ricerca di Google
Quando gli utenti hanno scoperto che possono chiamare Google utilizzando la query, la discussione è esplosa “Sito: chatgpt.com/share“Trovare migliaia di stranieri per parlare con AI Assistant. Ciò che è emerso ha dipinto un ritratto intimo di come le persone interagiscono con l’intelligenza artificiale – dai consigli di rinnovamento del bagno a profonde domande sulla salute personale e riscrive di curriculum sensibili professionalmente.
“Pensiamo che questa funzione offra molte opportunità per le persone di condividere accidentalmente ciò che vogliono, Open ha detto il team di sicurezza di Openi, accettando che le ringhiere non sono sufficienti per prevenire gli abusi.
La serie di effetto AI torna a San Francisco – 5 agosto
La prossima fase dell’intelligenza artificiale è qui – sei pronto? Per uno sguardo speciale a come gli agenti autonomi rimodellano i flussi di lavoro aziendali, Block, GSK e SAP si sono uniti ai leader dalla fine all’estremità senza prendere decisioni.
Ora aggiusta il tuo posto: l’area è limitata: https://bit.ly/3guupplf
L’evento rivela un punto cieco critico quando le aziende di intelligenza artificiale si avvicinano al design dell’esperienza dell’utente. Sebbene fossero presenti protezioni tecniche, la specialità è stata selezionata e la necessità di attivare più clic: l’elemento umano era problematica. Gli utenti non hanno compreso appieno gli effetti della ricerca delle loro conversazioni o hanno ignorato i risultati della privacy dei loro nemici per condividere solo utili scambi di azioni.
Come esperto di sicurezza È stato notato in x: “Il potenziale attrito di condivisione di informazioni private dovrebbe essere maggiore di una casella di approvazione o non dovrebbe esistere affatto”.
Una buona chiamata per veloce e previsto. Se vogliamo che l’IA sia accessibile, dovremmo contare che la maggior parte degli utenti non legga mai cosa fanno clic.
Il potenziale attrito di condivisione di informazioni private dovrebbe essere maggiore di una casella di approvazione o non dovrebbe essere presente. https://t.co/remhd1aaxy
– Wavefnx (@Wavefnx) 31 luglio 2025
La falsa selezione di Openai segue un modello inquietante nel settore dell’intelligenza artificiale. Nel settembre 2023, Google ha riscontrato critiche simili quando i discorsi di Bard AI hanno iniziato a emergere nei risultati di ricerca e ha chiesto alla società di implementare misure di blocco. Meta ha affrontato alcuni utenti Meta AI Problemi comparabili accidentali Chat private inviate a pubblicazioni pubblicheNonostante gli avvertimenti sul cambiamento di riservatezza.
Questi eventi illuminano una difficoltà più ampia: le aziende di intelligenza artificiale si stanno rapidamente spostando per innovare e differenziare i loro prodotti a spese della solida protezione della riservatezza. La pressione di inviare nuove funzionalità e mantenere un vantaggio competitivo può oscurare la valutazione attentamente dei potenziali scenari di abuso.
Per i decisori aziendali, questo modello dovrebbe porre serie domande sulla determinazione del venditore. Se i prodotti di intelligenza artificiale di fronte al consumatore stanno lottando con i controlli di base della privacy, cosa significa per le pratiche commerciali che si occupano di questi dati istituzionali sensibili?
Cosa dovrebbero sapere le imprese sui rischi per la privacy di AI Chatbot
. Cerca la discussione di Chatgpt Dalla pianificazione strategica all’analisi competitiva, è di particolare importanza per gli utenti aziendali che fanno sempre più affidamento per gli assistenti di intelligenza artificiale. Openi sostiene che gli account aziendali e di team hanno diverse guardie di riservatezza, sottolineando l’importanza di comprendere pienamente il modo in cui il fumble del prodotto di consumo, i venditori di intelligenza artificiale sono completamente gestiti nella condivisione e nella gestione dei dati.
Le aziende intelligenti dovrebbero richiedere risposte chiare sulla gestione dei dati dei provider di intelligenza artificiale. Le domande chiave includono: in quali condizioni possono parlare a terzi? Quali controlli ci sono per prevenire l’esposizione accidentale? Quanto velocemente le aziende possono rispondere agli eventi sulla privacy?
L’evento mostra anche la natura virale delle violazioni della riservatezza nell’era dei social media. Nelle ore successive alla prima scoperta, la storia è stata diffusa X.com (vecchio nome Twitter)– RedditE le grandi trasmissioni tecnologiche aumentano i danni alla reputazione e forzando la mano di Openi.
Dilemma dell’innovazione: creazione di utili funzionalità di intelligenza artificiale senza sacrificare la privacy dell’utente
La visione della caratteristica della chat per ricerca di Openai non era naturalmente imperfetta. La capacità di esplorare utili discorsi di intelligenza artificiale può davvero aiutare gli utenti a trovare soluzioni a problemi comuni come il modo in cui sono. Overflow Stack È diventata una risorsa inestimabile per i programmatori. Il concetto di creazione di una base di informazioni cercata dalle interazioni AI ha valore.
Tuttavia, ha dimostrato una tensione fondamentale nello sviluppo dell’esecuzione. Le aziende vogliono utilizzare l’intelligenza collettiva prodotta attraverso le interazioni degli utenti mantenendo la privacy individuale. Trovare il giusto equilibrio richiede approcci più sofisticati rispetto alle semplici caselle di conferma della selezione.
Un utente in x ha preso la complessità: “Non ridurre la funzionalità perché le persone non possono leggere. Il presunto è buono e sicuro, dovresti stare a terra.” Ma altri non erano d’accordo, si diceva: “Il contenuto del chatgpt è spesso più sensibile di un conto bancario”, ha detto.
Come ha suggerito lo specialista dello sviluppo del prodotto Jeffrey Emanuel in X: “Dovrebbe assolutamente fare un post -morte e” Quanto sarebbe cattivo il 20% della popolazione fraintendere e abusererebbe di questa caratteristica? ” e pianificare di conseguenza.
Dovrebbe sicuramente farlo dopo una mortalità, e “quanto sarebbe grave se il più stupido della popolazione avrebbe frainteso e abuserebbe questa caratteristica?” E pianificare di conseguenza.
– Jeffrey Emanuel (@DoodLestein) 31 luglio 2025
Controlli di base sulla privacy di ogni società di intelligenza artificiale che ogni società di intelligenza artificiale dovrebbe applicare
. Refrigerazione della ricerca di chatgpt Offre diversi corsi importanti sia per le società di intelligenza artificiale che per i clienti aziendali. Innanzitutto, le impostazioni di privacy predefinite sono molto importanti. Le caratteristiche che possono rivelare informazioni precise dovrebbero richiedere un consenso chiaro e informato sui risultati potenziali.
In secondo luogo, la progettazione dell’interfaccia utente svolge un ruolo importante nella protezione della riservatezza. Operazioni multiple complesse possono portare a errori dell’utente con gravi conseguenze, anche se tecnicamente sicure. Le società di intelligenza artificiale dovrebbero investire in un grande investimento per rendere intuitivi e intuitivi i controlli sulla privacy.
Terzo, le capacità di risposta rapida sono essenziali. La capacità di Openai di invertire oltre ore ha impedito un danno da reputazione più gravi, ma l’evento ha ancora rivelato domande sui processi di esame delle caratteristiche.
In che modo le aziende possono proteggersi dai guasti alla privacy dell’IA?
Man mano che l’intelligenza artificiale diventa sempre più integrata nelle operazioni aziendali, tali eventi sulla privacy probabilmente si tradurranno in più probabilità. I discorsi sono significativamente aumentati quando i discorsi contengono strategia aziendale, dati dei clienti o informazioni registrate anziché domande personali sullo sviluppo della casa.
Ulteriori aziende pensieri dovrebbero vedere questo come una chiamata per svegliarsi per rafforzare i quadri di governance dell’IA. Ciò include valutazioni complete di riservatezza prima di distribuire nuovi strumenti di intelligenza artificiale, quali informazioni possono essere condivise con i sistemi di intelligenza artificiale e la protezione di titoli dettagliati delle applicazioni di intelligenza artificiale in tutta l’organizzazione.
L’industria dell’intelligenza artificiale più ampia dovrebbe anche imparare dagli ostacoli di Openai. Questi veicoli sono più forti e come si trovano ovunque, il margine di errore continua a ridursi nella protezione della riservatezza. Le aziende che danno priorità alla progettazione di privacy ponderata dall’inizio beneficeranno di significativi vantaggi competitivi rispetto a quelli che in seguito pensano alla segretezza.
Alto costo di frattura dell’intelligenza artificiale
. Sezione di ricerca di chatgpt L’intelligenza artificiale mostra una verità fondamentale sull’adozione: la fiducia è straordinariamente difficile da ricostruire dopo la rottura. La rapida risposta di Openi, sebbene contenga danni urgenti, mi ricorda che i guasti alla privacy degli eventi possono oscurare rapidamente i risultati tecnici.
Per un settore basato sulla promessa di trasformare il modo in cui lavoriamo e viviamo, non è solo un requisito piacevole, ma una necessità esistenziale per mantenere la fiducia dell’utente. Man mano che le capacità di intelligenza artificiale continuano ad espandersi, le aziende che hanno successo saranno aziende che dimostrano di poter innovare in modo responsabile mettendo la privacy e la sicurezza degli utenti al centro dei processi di sviluppo del prodotto.
Ora la domanda è se l’industria dell’intelligenza artificiale imparerà da quest’ultima chiamata per il risveglio o se inciampare o meno con scandali simili. Perché nella corsa per costruire l’intelligenza artificiale più utile, le aziende che dimenticano di proteggere i loro utenti possono trovarsi da sole.
Collegamento alla fonte