AmmissioneInserito il 19 settembre, ha detto Kevin Guo, pesantemente ricostruito e alto e CEO Revisione della tecnologia del MIT Non poteva discutere i dettagli del contratto, ma ha confermato che includeva l’uso dell’algoritmo di rilevamento dell’IA della società per il materiale per abusi sessuali su minori (CSAM).
Citazione di archiviazione dati Dal National Center for Missing ed Exloid Children, che ha riportato un aumento dell’1,325% negli incidenti del 2024 relativi all’intelligenza artificiale generativa. “La quantità obliqua del contenuto digitale che trasmette online richiede l’uso di apparecchiature automatizzate per elaborare e analizzare i dati in modo efficiente”, si legge nel deposito.
La prima priorità degli investigatori di abusi sui minori è quella di trovare e fermare qualsiasi cattiva condotta attualmente, ma il diluvio di CSAM con sede in AI ha reso difficile per gli investigatori sapere se le immagini riflettono attualmente una vera vittima a rischio. Uno strumento che può contrassegnare con successo le vere vittime aiuterà una larga scala quando provano a dare la priorità ai casi.
L’identificazione delle immagini basate sull’intelligenza artificiale “garantisce che le risorse investigative si concentrino su questioni relative alle vittime reali, massimizzano l’effetto del programma e proteggano gli individui deboli”, legge il deposito.
Hive Ai AI fornisce strumenti che creano video e immagini, nonché molti materiali di strumenti di moderazione che possono contrassegnare violenza, spam e contenuti sessuali e persino identificare le celebrità. A dicembre, Revisione della tecnologia del MIT È stato riferito che la società stava vendendo la sua tecnologia di rilevamento profondo all’esercito americano.