Casi di supporto del personale di Google e OpenAI
Un altro breve Supporting Anthropic è stato presentato da vari dipendenti tecnici, ingegneristici e di ricerca di Google e OpenAI. Google è un investitore in Anthropic. Lo staff di Google e OpenAI hanno scritto che “la massiccia sorveglianza nazionale alimentata dall’intelligenza artificiale pone profondi rischi alla governance democratica, anche in mani responsabili”. Per quanto riguarda i sistemi d’arma autonomi, hanno scritto che “gli attuali modelli di intelligenza artificiale non sono sufficientemente affidabili per assumersi la responsabilità di prendere da soli decisioni su bersagli letali, e i rischi derivanti dal loro impiego a tale scopo richiedono una qualche forma di feedback e protezione”.
Lo staff di Google e OpenAI ha affermato che l’utilizzo della designazione del rischio della catena di fornitura “in risposta alle negoziazioni contrattuali di Anthropic, (il Pentagono) introduce un’incertezza nel nostro settore che mina l’innovazione e la competitività americana. Raffredda il dibattito professionale sui benefici e sui rischi dei sistemi di intelligenza artificiale di frontiera e sui vari modi in cui la tecnologia può affrontare tali rischi. “
Il CEO di Anthropologie Dario Amodei ha spiegato le obiezioni dell’azienda all’utilizzo dell’intelligenza artificiale specifica in a Pubblicato il 26 febbraio. “Sosteniamo l’uso dell’intelligenza artificiale per missioni legittime di intelligence straniera e di controspionaggio. Ma utilizzando questi sistemi per la massa domestico La sorveglianza è incompatibile con i valori democratici”, ha scritto.
La legge attuale consente al governo di “acquistare registrazioni dettagliate dei movimenti, della navigazione web e delle associazioni degli americani da fonti pubbliche senza un mandato” e “l’intelligenza artificiale rende possibile assemblare questi dati sparsi e individualmente innocui in un quadro completo della vita di qualsiasi persona – automaticamente e in modo massiccio,” ha scritto Amodei.
CEO: Le armi autonome sono troppo rischiose
Amodei ha espresso sostegno per le armi parzialmente autonome utilizzate in Ucraina, ma non per sistemi d’arma completamente autonomi “che tengono completamente gli esseri umani fuori dal giro e automatizzano la selezione e l’ingaggio degli obiettivi”. Ha detto che le armi completamente autonome “potrebbero rivelarsi fondamentali per la nostra difesa nazionale”, ma che l’intelligenza artificiale non è ancora abbastanza affidabile per alimentarle.















