(1945 KeriPort Sepradited “Scienza: limite senza fine“Il governo degli Stati Uniti ha lanciato una lunga tradizione di investimenti nella ricerca di base, scritta da Walevar Bush su richiesta del presidente Truman. Questi investimenti hanno pagato dividendi continui in molti settori scientifici-from-from-from-to Laser a Laser e si sono formati per le informazioni di intelligence artificiale dalle tecnologie mediche.
Eppure, la ricchezza per la scienza di base – e per l’educazione di coloro che possono portarla avanti – è sotto pressione crescente. Nuovo Casa Bianca proposto Budget federale Il Dipartimento dell’Energia e la National Science Foundation (sebbene il Congresso) includono tagli profondi Maggio Distratto da tali raccomandazioni). Già, il National Institute of Health ha cancellato o fermato Oltre $ 1,9 miliardi In Grant, mentre NSF STEM stava affrontando programmi educativi Più di $ 700 milioni Alla fine.
Questi svantaggi hanno costretto alcune università a congelare gli studenti laureati, annullare i tirocini e restituire opportunità di ricerca estiva: ha reso difficile per i giovani perseguire la carriera scientifica e ingegneristica. Nell’era con metriche a breve termine e rapidi rendimenti, può essere difficile giustificare la ricerca le cui applicazioni potrebbero non essere fisiche per decenni. Ma sono gli stessi identici sforzi che vogliamo proteggere il nostro futuro tecnico.
Considera John McCarthi, matematico e informatico, che ha coniato il termine “intelligenza artificiale”. Alla fine degli anni ’50, nel MIT, guidò uno dei primi gruppi di intelligenza artificiale e Sviluppato LispUn linguaggio di programmazione è ancora utilizzato nelle applicazioni di calcolo scientifico e AI. A quel tempo, l’IA pratica sembrava lontana. Ma quel lavoro di base iniziale ha reso la base per il mondo gestito dall’intelligenza artificiale di oggi.
Dopo i primi anni ’50 agli anni ’70, interessati alla rete nervosa-Today è stata determinata durante i cosiddetti “Wintors”, un’importante architettura AI indotta dall’architettura AI ispirata al cervello umano-’90. Dati limitati, potenza computazionale insufficiente e lacune teoriche hanno reso difficile la regione per i progressi. Tuttavia, ricercatori come Jeffrey Hintan e John Hopfield hanno esercitato pressione. Hopfield, che ora è il vincitore del premio Nobel del 2024 in fisica, ha introdotto per la prima volta il suo rivoluzionario modello di rete neurale nel 1982, In una carta Pubblicato in Azione della National Academy of Sciences of USA. Il suo lavoro ha rivelato profonde relazioni tra calcolo collettivo e comportamento dei sistemi magnetici disorganizzati. Insieme al lavoro di colleghi tra cui Hinton, che è stato assegnato Nobel nello stesso anno, Ricerca fondatrice Oggi vediamo l’esplosione delle tecnologie di apprendimento profondo.
Uno dei motivi per cui le reti neurali prosperano ora l’unità di elaborazione grafica o la GPU-originariamente progettata per i giochi, ma ora è essenziale per il funzionamento matrice-matrice di AI. Questi chip si basano sui decenni della ricerca fondamentale nella scienza dei materiali e nella fisica a stato solido: è possibile produrre i transistor più efficienti per realizzare materiali ad alte correlati, miscele di silicone stressanti e altri progressi possibili. Ora stiamo entrando in un’altra frontiera, alla ricerca di memoristi, contenuti che cambiano fase e 2D e dispositivi spintonici.
Se lo stai leggendo su un telefono o un laptop, una volta stai trattenendo il risultato di una persona fatta sulla curiosità. La stessa curiosità è ancora viva nei laboratori universitari e di ricerca oggi – spesso in modo incontrollabile, a volte vago lavoro svolge silenziosamente compiti di terra per le rivoluzioni che si infiltrano alcuni degli aspetti più essenziali della nostra vita dopo 50 anni. Nella rivista di fisica principale in cui vedo il lavoro laborioso e la dedizione dietro ogni articolo gestito dall’editore, il mio collega e io mi gestiamo. La nostra economia moderna – con veterani come Nvidia, Microsoft, Apple, Amazon e Alphabet, sarà inimmaginabile senza umili transistor e come persone che hanno promosso l’installazione della curiosità degli scienziati della passione per la conoscenza, che l’hanno resa possibile.
Il prossimo transistor non può assomigliare affatto a un interruttore. Può emergere da nuovi tipi di materiali (come tipo quantico, organico ibrido o di tipo gerarchico) o dispositivi che non abbiamo ancora immaginato. Ma richiederà materiali uguali: solide conoscenze fondamentali, risorse e libertà di perseguire domande aperte ispirate alla cooperazione – e, soprattutto, dal sostegno finanziario da parte di qualcuno che crede che valga la pena rischiare.
Julia R. Il Greer California Institute of Technology è uno scienziato materiale. È un giudice Revisione della tecnologia del MITInnovatori di innovatori sotto i 35 anni e Un onore precedente (nel 2008).















