Vinton G. Cerf: "Værdien af ​​investeringer fra den amerikanske regering kan ikke overføres"


Torsdag den 17. juli var fire videnskabseksperter tjent som vidner ved den amerikanske senatkomité for handel, videnskab og transport, "Federal Research Portfolio: Investering i investeringer i F & U." Høringen betragtede den føderale regerings rolle i forskning og udvikling (FoU) og landets STEM-uddannelses- og opsøgende initiativer. De

Torsdag den 17. juli var fire videnskabseksperter tjent som vidner ved den amerikanske senatkomité for handel, videnskab og transport, "Federal Research Portfolio: Investering i investeringer i F & U." Høringen betragtede den føderale regerings rolle i forskning og udvikling (FoU) og landets STEM-uddannelses- og opsøgende initiativer.

Deltagerne i Capitol-hørerummet var Mariette DiChristina, chefredaktør og senior vicepræsident for; Vinton G. Cerf, computerforsker, Googles internetevangelist og en af ​​fædrene på internettet; Neal F. Lane, tidligere direktør for Det Hvide Huss kontor for videnskab og teknologi; og Stephen E. Fienberg, professor i statistik og samfundsvidenskab på Carnegie Mellon University.

Kendskab til behovet for langsigtede investeringer inden for videnskab og teknologi, bestod kongressen America COMPETES Acts fra 2007 og 2010 for væsentligt at øge de føderale F & U-budgetter, for at fremme STEM (videnskab, teknologi, teknik og matematik) uddannelse og til at understøtte den innovation, der er nødvendig for økonomisk vækst.

Nedenfor er den fulde tekst af det skriftlige vidnesbyrd af Vinton G. Cerf.

Formand Rockefeller, Medlem af Udvalget, Udvalgte Medlemmer og Gæster, Jeg er hædret og glad for at have denne lejlighed til at deltage i en høring om et emne, som jeg er lidenskabelig og engageret i: Grundforskning. Der er ingen erstatning for dyb forståelse af naturlige og kunstige fænomener, især når vores nationale og globale velvære afhænger af vores evne til at modelere og forudsige dem. Det ville være svært at overvurdere de fordele, der er blevet realiseret af investeringer fra den amerikanske regering og den amerikanske industri i forskning.

Jeg er sikker på, at hvert medlem af dette udvalg er velbevidst om det grundlæggende videnskabelige paradigme: Teorier er udviklet til at forklare observationer eller at spekulere om, hvordan og hvorfor tingene kan fungere. Forsøg udføres for at validere eller afvise forudsigelser af teorien. Teorierne revideres ud fra eksperimentelle resultater.

Grundlæggende og anvendt forskning
Mens det primære fokus på opmærksomhed i dette panel er på grundforskning, føler jeg mig tvunget til at observere, at grundlæggende og anvendt forskning går hånd i hånd, informere og stimulere hinanden i et uendeligt Yin og Yang-partnerskab. På nogle måder er anvendt forskning en form for validering, fordi ansøgningens succes (eller fejl) kan styrke eller modsætte sig de teoretisk forudsagte resultater og den underliggende teori. Grundforskning forsøger at forstå og anvendt forskning forsøger at gøre, og ofte må man forfølge både i bestræbelserne på at afdække ny viden.

Jeg vil gerne bruge internettet som et eksempel på anvendt forskning for at gøre flere punkter. Internettet blev først udtænkt af Bob Kahn i slutningen af ​​1972. Han og jeg arbejdede sammen om ideen i 1973 og offentliggjorde det første papir om dets design i maj 1974. Den blev lanceret operationelt den 1. januar 1983. Sponsoreret af US Defense Advanced Research Projects Agency (DARPA) udbrød internettet stærk motivation fra sine tidligere og yderst vellykkede ARPANET og senere Packet Radio og Packet Satellite projekter. Pakket Satellit-projektet tegner også delvis resultaterne fra et andet projekt kaldet ALOHAnet, der var sponsoreret af US Air Force Office of Aerospace Research (SRMA) og DARPA. NSF var en stor bidragyder til internets udvikling og dramatiske ekspansion i det akademiske samfund med sit NSFNET-projekt, der forbinder NSFs supercomputere med forskningsmiljøet. Energiministeriets ESNET og NASA Science Internet (NSINET) tilføjede den energi, der driver denne udvikling.

For det første kan vellykkede anvendte forskningsprojekter som internettet tage lang tid at modne. Det var ti år fra udformningen til systemets udbredelse og krævede vedvarende finansiering og fortalervirksomhed i og efter denne periode for ikke at sige noget om den forskning og det eksperiment, der gik forud for det.

For det andet, da det primært var et teknisk og anvendt forskningsprojekt, gjorde systemet det og fortsætter nu med at oprette nye teoretiske og analytiske udfordringer. Vi udvikler stadig teorier og modeller for opførelsen af ​​dette komplekse, voksende og udviklende system, når vi måler, observerer og analyserer dets ydeevne. Internettets applikationer fortsætter med at drive forskning, der tager sigte på at forstå og forbedre sin drift eller at opfinde noget bedre.

For det tredje har serendipity spillet en vigtig rolle i udviklingen af ​​internets funktionalitet og de applikationer, den understøtter. Netværksbaseret elektronisk mail opstod som en større, men ikke-planlagt ansøgning på ARPANET. World Wide Web (WWW) blev oprindeligt udtænkt i 1989 for at understøtte deling af forskningsdokumenter i partikelfysik ved Center for European Nuclear Research (CERN). Det spredte sig hurtigt på internettet efter introduktionen af ​​MOSAIC-browseren af ​​NSF's National Center for Supercomputer Applications (NCSA) ved University of Illinois i Urbana-Champaign i slutningen af ​​1992 og oprettelsen af ​​Netscape Communications Corporation i 1994. WWW har bliver den mest anvendte applikation på internettet. Selv om WWW blev udtænkt til en bestemt applikation, har dens generality og den underliggende internet skabt betingelserne for et overblik over nye anvendelser, som fortsat opfindes dagligt.

Forskning tager tid
Validering af grundforskning kan også tage lang tid. Begrebet inflationen i det tidlige univers venter stadig tilfredsstillende bekræftelse. Postet af Alan Guth (blandt andre) omkring 1974, viser årets seneste resultater fra målinger taget af BICEP2-eksperimentet bevis for, at denne teori er korrekt, men der er betydelig debat om målingernes fortolkning. Mens samfundet afventer yderligere at bekræfte eller afvise eksperimentel validering af målingerne, er det vigtigt at erkende, at midlerne til at indsamle potentielt validerende eksperimentelle data tog 30 år at nå modenhed. En lignende observation kan gøres for nylig opdagelse af en Higgs boson af Large Hadron Collider teamet på CERN. Peter Higgs og hans kolleger postulerede eksistensen af ​​denne grundlæggende partikel og dens tilhørende felt omkring 1964, men det har taget 50 år for den eksperimentelle kapacitet til at teste denne teori for at nå frem til det punkt, hvor sådanne tests kunne udføres.

Det er risikabelt: Der er ingen garantier
Det er værd at pause et øjeblik at værdsætte, at forskning i sig selv ikke altid kan garantere resultater. Desuden kan resultaterne i nogle tilfælde komme i form af overraskelser. Et kanonisk eksempel er, at Alexander Fleming i 1928 opdagede, at penicillium skimmelsvamp producerer et antibiotikum. Han reagerede på en uforklarlig observation i nogle petriskåle, som han skete at lægge mærke til. Det var først indtil 13 år senere i 1941, at den aktive forbindelse, vi kalder penicillin, blev isoleret. De bedste forskere er dem, der er opmærksomme på uregelmæssigheder og søger at forstå dem. Nobelpræmier går ikke til forskere, som ignorerer anomalier. De går til forskerne, der ser uventede resultater og siger, "huh? Det er sjovt! "Og forsøge at finde ud af, hvad der ligger bag en uventet observation.

Der kræves ydmyghed i dette rum. Man hører begrebet "Physics Laws" som om man venter straf for nogen eller noget, der tør at bryde dem. Og alligevel ved vi, at disse såkaldte love kun kan være tilnærmelser til virkeligheden - begrænset af nøjagtigheden af ​​vores måleinstrumenter og eksperimentelle kapacitet til at validere deres forudsigelser. Enhver videnskabsmand skal være parat til at kaste bort eller revidere en kæledyrsteori, hvis måling og observation modsiger det.

Måske mere vigtigt er evnen til at opretholde høj risiko, høj payoff forskning. Den amerikanske industri har råd til at tage en vis risiko, men bæredygtige virksomheder er sjældent i stand til at investere i meget langsigtet forskning. Venturekapitalen, mens den er historisk villig til at tage betydelig risiko, søger efterfristede udbetalinger. Evnen til at tage langvarig, langsigtet risiko for potentiel langsigtet fordel falder i høj grad til regeringen. De Forenede Stater har haft gavn af at underskrive denne form for forskning, som eksemplificeret ved National Science Foundation's (NSF) forskningsprogrammer, Forsvarets avancerede forskningsprojekt, National Institutes of Health, National Institutes of Standards and Technology, blandt mange anden amerikansk regering støttede forskningsprogrammer.

På dette område har den amerikanske kongres og udvalgene fokuseret på videnskabelig forskning og udvikling de største roller til at spille. Konsekvent og øget støtte til grundlæggende og anvendt forskning og avanceret udvikling har været kilden til de fleste store fremskridt inden for videnskab og teknologi i de sidste 70 år. Den amerikanske økonomi har været misundelig for verden, hovedsagelig på grund af denne konsekvente cyklus af langsigtet forskning og dens anvendelse på produkter og tjenester på kort sigt.

Betydningen af ​​fejl
Mislykket er vismanden til visdom i den videnskabelige verden. Når vi laver forudsigelser eller bygger systemer baseret på vores teoretiske modeller, må vi være forberedt på og lære af vores fejl. At forstå årsagen til svigt er undertiden endnu vigtigere end positive resultater, da det kan bane vej for langt dybere forståelse og mere præcise virkelighedsmodeller. I den videnskabelige virksomhed gør friheden til at tage risiko og acceptere potentialet for fiasko forskellen mellem blot inkrementel forfining og gennembrud, der åbner nye perspektiver for forståelse.

I slutningen af ​​1800-tallet blev det antaget, at universets nytonske model var fuldstændig, og at vi kun var nødt til at måle de fysiske konstanter mere præcist for at kunne skabe utvetydige forudsigelser. I 1905 splittede Einsteins fire papirer om den fotoelektriske virkning, den brune bevægelse, speciel relativitet og massenergiækvivalens (E = Mc2) selvtilfredsheden af ​​det tidlige 20. århundrede fysik. Han viste, at rent newtonske forestillinger var utilstrækkelige til at forklare målte observationer. Han forstærkede sin virkning i 1915 med udgivelsen af ​​sine monumentalt vigtige feltekvationer af generel relativitet.

Forskning i atomets natur førte til udviklingen af ​​kvantfeltteori begyndende i 1920'erne. Bestræbelser på at forene sine ekstremt intuitive men yderst præcise forudsigelser med Einsteins geometriske teorier om rumtid har ikke båret påviselig frugt. Ironien af ​​alt dette er, at vi nu tror, ​​at de meget små fysik er ekstremt relevante for universets undersøgelse som helhed, fordi det tidlige univers i øjeblikket for den såkaldte Big Bang var så lille og tæt og varm at kvante modeller synes at have domineret sin adfærd. Einsteins geometriske teori bryder simpelthen ned under disse forhold og giver ingen forudsigelser om testbar brug.

Hvis vi har lært noget i løbet af de sidste hundrede år, er det, at vi ved mindre, end vi engang troede, at vi vidste om verden omkring os. For forskere betyder det kun, at det område, der endnu skal udforskes, simpelthen er større end nogensinde, og at opdagelsen venter os hver eneste tur.

Computerens rolle
Richard Hamming er en legendarisk numerisk analytiker. Som han underholdende bemærkede: "Formålet med computing er indsigt, ikke tal." Computere, beregning, netværk og informationsdeling er blevet vigtige dele af forskningslandskabet gennem de sidste 50 år. World Wide Web og de søgemaskiner, der har udviklet sig omkring det, har forbedret vores evne til at dele og opdage information og potentielle forskningspartnere på globalt plan. Nye discipliner er opstået som beregningsbiologi, beregningskemi og beregningsfysik. Vi bruger stadig mere detaljerede og præcise modeller til at lave forudsigelser, som vi kan teste i laboratoriet. Nobelprisen for kemi i 2013 gik til tre NSF-finansierede forskere for deres modeller af molekylære processer. Fra theblog: "... årets pris inden for kemi er blevet tildelt Martin Karplus, Michael Levitt og Arieh Warshel for deres udvikling af" multiscale metoder til komplekse systemer ". Mere simpelt sagt er disse tre kemikere blevet anerkendt for deres udvikling og anvendelse af metoder til at simulere molekylers adfærd på forskellige skalaer, fra enkeltmolekyler til proteiner. "

Der er en renæssance i anvendelsen af ​​computing til forskning, dels drevet af den enorme stigning i computerkraft og hukommelse, der findes i kombinationer af cloud og super computing. " Store data" er blevet en mantra, men det er rimeligt at sige, at vores evne til at absorbere, analysere og visualisere store mængder af målt eller beregnede data er forbedret dramatisk i de sidste par årtier. Vi kan bruge finere og finere kornede modeller, forbedre nøjagtigheden og aktualiteten af ​​forudsigelser takket være disse muligheder. Beregningsbiologi kan føre til gennembrud i vores evne til at forstå genetik, epi-genetik, proteomet og betydningen af ​​flora i vores fordøjelsessystemer. Med denne viden vil vi hjælpe folk med at leve længere, sundere og mere produktive liv. Vores evne til at forstå globale fænomener vil få gavn af denne beregningsrevne renæssance.

Jeg ville være remiss for ikke at nævne det ting, der er hurtigt på os. Netværket af fælles enheder, der omgiver og perfuse vores samfund, bliver hurtigt til virkelighed. Fra husholdningsapparater til kontorudstyr, fra industriel fremstilling til forsyningsvirksomheder, fra transportkøretøjer til personligt overvågningsudstyr, vil vi leve i en stadig mere netværksmæssig verden. Vi bliver omgivet af software. Det er vigtigt, at vi lærer at designe sikkerhed og sikkerhed i disse systemer og at forstå og være i stand til at forudsige deres samlede adfærd. Denne tendens illustrerer også løftet og risikoen for vores moderne verden. Cybersikkerhed og cybersikkerhed skal ledsage vores voksende brug af computere, programmerbare enheder og netværk, hvis vi skal modtage nettovinster fra denne udvikling.

Nano-Materialer
Ved siden af ​​og faktisk bidrager til beregningskapacitet finder vi nano-teknologi af stigende betydning og værdi. Materialer, der ikke findes i naturen, har egenskaber, der tåler intuition (f.eks. Usynlighed og superledningsevne). Grafen: ark af carbonmolekyler, der er opstillet i en-atom-tykk, sekskantet "kyllingetråd" -mode, har uventet potentiale for udskiftning af silicium i transistorer, til filtrering af urenheder fra vand til ledning af varme og superledende elektricitet. Kulstof bliver både bête noir og deus ex machina fra vores civilisation, afhængigt af om det er i form af kuldioxid, kulbrintebrændstoffer eller carbon nanorør!

I Viden og Interesse for Videnskab og dens Anvendelse
Det vides bredt og korrekt, at videnskab, teknologi, teknik og matematik (STEM) danner grundlag for at forbedre og gøre brug af vores forståelse af, hvordan fænomenet i vores verden virker. Selv om der er vedvarende kontroverser vedrørende udbuddet af STEM-uddannede arbejdstagere, kan der ikke være nogen tvivl om, at der er en stigende efterspørgsel på arbejdsstyrken for disse færdigheder.

Som nylig formand for Association for Computing Machinery (ACM) og et medlem af Googles medarbejdere har jeg været stærk fortaler for, at computervidenskaben skulle være en nødvendig del af K-12-læseplanen. Enhver elev skal have en vis eksponering for begrebet programmering, ikke kun fordi det fremmer logisk tænkning, men også fordi det er vigtigt for alle at forstå og værdsætte de potentielle svagheder i alle software-styrede systemer. Datalogi bør behandles på lige fod med biologi, kemi, fysik og matematik i K-12 og undervisningsplaner, ikke blot som valgfag, der ikke har STEM-kredit.

Producentbevægelsen er måske et af de vigtigste, nye fænomener i den moderne kultur. Genopdagelsen af ​​glæden og tilfredsheden med at gøre tingene bidrager til en genfødsel af amerikansk interesse i småskala fremstilling og stolthed i håndværk. Udviklingen af ​​såkaldte 3D-printere har accelereret dette fænomen. NSF er stærkt involveret i disse initiativer. Sammen med forskningsprogrammer inden for avanceret produktion, som delvis er stimuleret af versioner af America COMPETES Act [PL 110-69 af 2007 og PL 111-358 af 2010), har avanceret fremstilling og makerbevægelsen potentialet til at genoptage amerikansk initiativ og interesse for et rum, der historisk havde flyttet fra kysten.

Frivillige programmer som Dean Kams FIRST Robotics-konkurrencer er repræsentative for en bølge af sådanne initiativer, der har potentiale til at genoplive de naturlige STEM-interesser i amerikansk ungdom.

Det er nogle gange sagt, at vi alle er fødte naturforskere, men at vores uddannelsessystem undertiden formår at udrydde denne naturlige nysgerrighed med dårligt konstrueret læseplanindhold og præsentationsstil. Computere og netværk kan også spille en rolle her.

En tidlig foray i Massive, Open, Online Classes (MOOCs) plads blev foretaget af to af mine Google kolleger, Sebastian Thrun og Peter Norvig. De foreslog at undervise i et online kursus i kunstig intelligens, i samarbejde med Stanford University. Forventede at højst 500 mennesker skulle tilmelde sig, de var bedøvede for at finde 160.000 mennesker havde ansøgt om at tage klassen. Kritikere påpegede, at kun 23.000 afsluttede kurset - men jeg taler dig om at give et eksempel på enhver computervidenskabslærer, der havde lært, at mange elever i løbet af en karriere endsige en klasse!

Den tidlige succes af MOOC'er har genereret en forsvarlig spænding og dannelse af profit og ikke-profitindsats i dette rum. Betjener klasser af titusindvis af studerende ad gangen, økonomien i MOOCs er dramatisk og overbevisende. En klasse på 100.000 studerende, der betaler $ 10 hver, genererer $ 1M i omsætning! Helt enkelt er skalaen nøgleudnyttelsesfaktoren. Selvom det absolut ikke er et paradigm, har potentialet for at levere højkvalitetsindhold og individualiseret læring på passende uddannelsesområder et transformerende potentiale for et uddannelsessystem, der ikke har ændret sig meget i de sidste 200 år.

Konklusion
Støtte til grundforskning og anvendt forskning er efter min opfattelse grundlæggende begrundet baseret ikke kun på de borgerlige og økonomiske fordele, den har givet, men også på grundniveau, at man forstår, at grundforskning er høj risiko, men har en høj potentialeudbetaling. Kun regeringen har kapacitet til at opretholde denne slags indsats. National Science Foundation blev grundlagt af Kongressen i 1950. NSF har gennem de sidste 60 + år støttet den videnskabelige forskningsvirksomhed med velkendte forslag, et velprøvet peer review system, dedikerede og velkvalificerede programledere og stærkt motiverede og stærkt effektivt lederskab.

Som medlem af National Science Board har jeg lært, at vellykkede videnskabelige bestræbelser støttet af NSF er afhængige af et partnerskab mellem forskningsmiljøet, National Science Foundation personale, ledelse og bestyrelse samt medlemmerne af Parlamentet og Senatet, der er lige engagerede til grundlæggende og anvendt forskning. Vannever Bush fik det nøjagtigt rigtigt i sin milepælrapport: Science, The Endless Frontier. Videnskaben er en uendelig grænse. Jo mere vi lærer, jo mere vi ved, at vi ikke ved, og jo mere skal vi dedikere os til at lære og vide mere.

Trump rådgivere til at diskutere Paris klimaaftaleKan en robot, et insekt eller Gud være opmærksom?Deportere planter og dyr for at beskytte dem mod klimaændringerFolk i dårlige kvarterer puster mere farlige partiklerNyligt fundet Exoplanet kan have Ring System Dwarfing SaturnusConjoined Comet: Hartley 2 maj har dannet sig fra 2 forskellige organerDen berømte "HeLa" Human Cell Line får sin DNA sekvenseretKan e-cykler skifte biler?