WEBVTT 00:00.031 --> 00:06.323 [Automatisk tekstet av Autotekst med NB Whisper. Kan inneholde feil.] Er 00:06.343 --> 00:18.710 vi klare? Ja. Hei! Velkommen til Scene Dombuds-biblioteka, b?de for dere som er her i salen, og for dere som er p? stream. Mitt navn er Morten 00:18.730 --> 00:28.935 D?hlen, jeg er professor i informatikk, og jeg har gleden av ? lede en samtale i dag om KI og klima. Men f?r vi kaller opp samtalepartnerne i 00:28.995 --> 00:43.538 dagens tema, s? skal jeg si bitte litt. Det ?ret jeg ble f?dt, i 1959, runda verdens befolkning 3 milliarder. Her i dette rommet feiret vi, 00:43.598 --> 00:52.541 eller vi markerte, at verdens befolkning runda 8 milliarder. Det gjorde vi i november for tre ?r siden. Og FN har kanskje estimert at vi 00:52.581 --> 01:03.646 kommer til ? bli 11 milliarder. Dette er et bakteppe. Menneskeheten ... Dette har jeg f?tt av Dag Hessen, er ganske stor. Av alle pattedyr p? 01:03.686 --> 01:18.334 jorda s? er 36 % menneske. 60 % er v?re husdyr, og 4 % er alt fra mus til elefant. S? vi kan vel si at menneskeheten har erobra denne kloden med 01:18.554 --> 01:38.491 god margin. En av de tingene vi n? gj?r, er ? bruke KI. Tallene sier hvor mye elektrisk kraft bruker datasentre p? fire ?rstall. 150 TWh brukte 01:38.671 --> 01:48.097 alle verdens datasentre for ?tte-ni ?r siden. Det er omtrent hva hele Norge bruker p? ett ?r. Omtrent n?, i 2025-2026, vil disse bruke 500 TWh. 01:52.891 --> 02:03.981 Det internasjonale energibyr?et har estimert at i 2030 er det rundt 1000, litt oppunder 1000, og med en litt st?rre usikkerhet hele 1500 TWh 02:04.161 --> 02:18.113 i 2035. Det er ti ganger s? mye som hele Norge bruker hvert ?r. Og ?rsaken til denne veksten er selvf?lgelig at det er noen store selskaper og noen 02:18.153 --> 02:27.920 til som samler enorme datamengder fra det vi gj?r p? nettet hver eneste dag. Dytter det inn i datasentre, dytter det inn i modeller, og skaper da 02:28.141 --> 02:40.330 det som omtales som KI. Og KI er mer enn disse spr?kmaskineriene vi ser. Det er metoder, teknologier, algoritmer som l?rer av data. Av 02:40.390 --> 02:53.060 erfaring. Og evner ? utf?re handlinger som vi oppfatter som intelligente. Dette er ikke bare et problem, en utfordring p? globalt 02:53.100 --> 03:01.707 niv?. I Irland ... Dette er tall jeg har f?tt fra en kollega i Storbritannia. I Irland g?r n? en tredjedel av all str?m til 03:01.747 --> 03:14.271 datasentre. Og 53 % av all ny fornybar g?r inn i disse datasentrene. Det er ?penbart at vi har en teknologi som er interessant og brukes i mange 03:14.291 --> 03:24.936 sammenhenger, men samtidig st?r for et veldig stort forbruk av energi. Men dette forbruket er ikke bare energi, det er ogs? vann til kj?ling av 03:24.956 --> 03:34.161 disse anleggene. Og det er en stor del materialer som m? hentes fra en s?rbar natur. S? vi m? tenke gjennom disse problemstillingene n?ye. 03:35.382 --> 03:45.881 Men det er ikke s?nn at det bare er negativt. Vi har forskere som jobber med ? bruke den type teknologi for ? se p? om det er mulig ? f? en bedre 03:45.981 --> 03:54.183 utnyttelse av fornybar. Det ?verste eksempelet der. Og det er ogs? mange forskere rundt omkring i verden som pr?ver ? si at kan vi droppe 03:54.223 --> 04:03.485 datasentrene og putte intelligensen ut p? kanten? Og bruke mindre ressurser og f? til en effekt? S? det er et stort antall forskere som ogs? 04:03.525 --> 04:12.731 ser p? den problemstillingen. N? skal vi diskutere KI-klima. 04:14.532 --> 04:24.700 Helge Jorheim skal sette deg helt borterst der. Han leder det nyopprettede senteret for global b?rekraft. S? er det Trude Storhjelm 04:24.720 --> 04:32.586 Moe ved siden av Helge, som er klimaforsker. Professor i geofag og klimaforsker p? Universitetet i Oslo. S? har vi fra Cicero Bj?rn 04:32.626 --> 04:42.834 Samset. Ogs? klimaforsker. S? har vi Elin Lerum Boasen, fra Statsvitenskap. Professor i statsvitenskap. Henrik 04:45.637 --> 04:54.765 Skau S?tra, som er professor i informatikk og skal komme her. Og s? har vi en maskinl?rer til slutt, Geir Kjetil Sandve, som kommer hit. Her har vi 04:54.785 --> 04:55.926 et godt knippe med folk som kan mene noe om dette temaet. 05:01.908 --> 05:16.376 Innledningsvis vil jeg at vi skal h?re litt hvordan ser dere p? temaet KI og klima fra deres st?sted. Og Helge, du skal f? lov til ? starte. Tusen 05:16.416 --> 05:27.224 takk for at du inviterte. Jeg tenkte jeg skulle si tre ting. For det f?rste, som leder for Senter for global b?rekraft, blir jeg veldig glad 05:27.244 --> 05:37.612 og optimistisk over at det n? finnes et nytt felt med masse energi og masse bra forskere. Nytt gravitasjonspunkt, p? en m?te. Som skal ta for 05:37.632 --> 05:46.976 seg sp?rsm?let om klimaendringer og hvordan ? motvirke dem. S? jeg tenker at det at KI kommer inn p? dette feltet, og at vi kan bringe det inn i 05:47.036 --> 05:53.139 senteret som et sted hvor det skjer ting, hvor det skjer innovasjon og nye ting, enten vi n?rmest vil eller ikke, det gj?r meg veldig 05:53.159 --> 06:03.543 optimistisk stemt. Og at KI kan bidra til energieffektivisering, bedre arealbruk etc., det er jeg ikke noen tvil om. Som historiker er jeg 06:03.563 --> 06:09.906 litt mer kynisk. Denne teknologien har vi holdt med siden 60-tallet, kanskje. Den har jo bidratt, men det jeg er redd for da, er om det er litt 06:09.926 --> 06:10.727 Red Herring. 06:23.212 --> 06:32.175 N? er det det som skal redde verden en stund! Mens vi ikke kommer i inngrep med det arbeidet vi egentlig skal gj?re. Og s? skal jeg gj?re ett ting som 06:32.195 --> 06:44.299 jeg tenker er litt mer filosofisk, kanskje. Unnskyld til filosofen i salen - i s? fall. Og det tror jeg har med mennesket ? gj?re. N? har vi brukt 06:44.340 --> 06:54.105 ganske mye tid p? ? skj?nne dette med menneskeskapte klimaendringer. At b?de problemet og l?sningen ligger hos oss mennesker. Da lurer jeg p? 06:54.125 --> 07:02.011 hva det betyr, eller det av og til gj?r meg litt bekymra at vi nettopp har skj?nt det, og s? outsourcer vi noe av dette igjen. Da blir sp?rsm?let 07:02.071 --> 07:10.637 hvilke oppgaver vi outsourcer, veldig sentrale. Jeg tror ikke det er s? enkelt at vi outsourcer tungregninga, og det l?ser problemet, og s? 07:10.657 --> 07:20.430 gj?r vi de kreative tingene selv. Jeg tror at det der ? regne og m?le har gjort noe viktig med oss for ? forst? klimaendringene. Hvis vi slutter ? 07:20.490 --> 07:31.301 gj?re det med v?r moralske bevissthet og v?r handlekraft, s? tror jeg det f?r ogs? noen effekter. Som senterleder for et tverrfaglig senter, 07:31.341 --> 07:37.882 s? tenker jeg at dette gir ny energi. Optimistisk. Et nytt sted folk kommer sammen. Som historiker er litt kyniker, og som filosofisk 07:37.942 --> 07:46.464 anlagt person, s? lurer jeg p? hva dette gj?r med v?r forst?else av v?rt ansvar, og v?r handlekraft som mennesker. Tror jeg. Takk, Helge. Da 07:46.484 --> 07:55.633 skal vi f? h?re litt fra klimaforskerne. Og f?rst deg, Trude. Ja, som nevnt. Klimaforsker, forsker p? det fysiske klimasystemet. Og vil 07:55.693 --> 08:06.540 f?rst uttrykke entusiasme rundt hva KI er i ferd med ? gj?re for v?re forskningsfelt. Det er helt utrolig hva vi n? kan gj?re for ? gjenkjenne 08:06.600 --> 08:21.209 m?nstre som vi tidligere ikke kunne se. Vi kan fylle hull i datasettene v?re, vi kan gj?re klimaberegningen mindre tung regnemessig. S? det er 08:21.330 --> 08:32.220 enorme muligheter. Vi er allerede i ferd med ? se hvordan KI holder p? ? transformere klimaforskninga. Vi har sett kanskje enda st?rre 08:32.280 --> 08:43.367 revolusjon innenfor v?rvarsling. S? det er viktig ? v?re klar over at v?rvarsling og klimafremskriving er litt ... Det er beslektede 08:43.387 --> 08:50.873 problemer, men de er ogs? litt ulike. N?r det gjelder klimaforskning, s? er det jo s?nn at ... Vi er i ferd med ? bevege oss inn i klimatilstander 08:50.913 --> 09:01.563 som verken mennesker eller maskiner har opplevd f?r, og da forst?r man at dataen som man har tilgjengelig for maskinl?ring ikke n?dvendigvis 09:01.583 --> 09:04.866 vil v?re tilstrekkelig n?r man skal si noe om framtidig klima. 09:09.127 --> 09:21.121 Og hva vi mennesker som kommer til ? gj?re som avgj?r hvilket klima vi har p? lang sikt. Det skal selvf?lgelig Elin si mer om snart. Men det vi ser n? 09:21.201 --> 09:34.933 er dessverre at utslipp globalt sett g?r ikke ned. De g?r dessverre litt opp. Kanskje delvis drevet av KI-revolusjonen. Det er et dilemma ? v?re 09:34.973 --> 09:49.243 klar over. Da er det kanskje ikke s? unaturlig at noen begynner ? se p? alternative l?sninger. Det har bl.a. Elon Musk gjort. For en dr?y uke 09:49.283 --> 09:59.793 siden gikk han ut p? X og sa at problemet med global oppvarming kan vi l?se ved at KI f?r styre en satellittsverm som da kan regulere hvor mye 09:59.833 --> 10:09.201 solinnstr?linger vi f?r til jorda. Skal KI styre klimaet p? jorda, blir jeg urolig av ? tenke p?. Og hva er et optimalt klima? Skal vi overlate til 10:09.221 --> 10:14.606 KI ? styre det? Jeg vil avslutte med det etiske dilemmaet, og kanskje kan vi komme tilbake til det etter hvert. 10:31.055 --> 10:38.878 Jeg kommer fra Cicero, og vi driver med tverrfaglig klimaforskning. Jeg er naturviter og egentlig et kollega av Trude, s? vi har samme 10:39.118 --> 10:47.822 utgangspunkt. Jeg skal pr?ve ? bygge litt p? det Trude sier. Jeg begynner ? bruke KI, jeg som alle andre forskere. Litt den f?lelsen n? 10:47.882 --> 10:56.966 som da jeg var ti ?r, eller noe s?nt. Da begynte de f?rste datamaskinene ? komme, og s? fikk jeg en Amiga 500 til jul. Det var kjempespennende, for 10:56.986 --> 11:04.231 det var akkurat det jeg hadde ?nska meg. Og s?, n?r entusiasmen har lagt seg, s? var det liksom ... Men hva bruker jeg denne til egentlig, da? Det 11:04.271 --> 11:12.837 tok faktisk litt tid. Men etter hvert ?pna alle mulighetene seg. Og da m? du se dette nye verkt?yet som jeg har f?tt, hvor passer det egentlig inn? 11:12.897 --> 11:19.442 Etter alle de store ordene. Og det f?ler jeg at det er litt der vi er n? fra geofagsiden. Hvilket hull er det egentlig denne AI-en n? skal fylle? 11:19.542 --> 11:27.488 Den skal ikke komme og ta over jobben v?r. Den skal gj?re noe vi ikke kan gj?re fra f?r. Og da er det s?rlig dette med komplekse data. Store 11:27.528 --> 11:36.695 datamengder, finnende sammenhenger. Fra min del av forskningen sliter vi med at vi har masse modelldata. 11:38.156 --> 11:46.202 Vi har observasjoner fra bakken. Og s? mangler vi den lille armeen av ph.d.-studenter som vi gjerne skulle hatt. Vi trenger fortsatt 11:46.222 --> 11:52.123 ph.d.-studenter, men det vil aldri v?re nok av dem. Dette er den f?rste virkelig gode bruken av KI, vi kan se sammenhengene. Dette har vi gjort 11:52.163 --> 12:00.484 med dypl?ring og nevrale nettverk allerede, men dette blir st?rre og bedre n? som mange flere mennesker ser p? det. Det er den rent fysiske 12:00.504 --> 12:09.726 delen. Vi kan f? hjelp til ? forst? de fysiske sammenhengene bedre. Der er vi fortsatt ikke i m?l. Helt i den andre enden av skalaen er det dette vi 12:09.746 --> 12:20.829 har h?rt om kontroll av energisystemer f.eks. Vi har et klimaproblem som er drevet av energibruken v?r. Det beste vi kan gj?re for ? l?se det, 12:20.869 --> 12:24.931 er ? f? ned energibruken gjennom effektivisering. 12:25.471 --> 12:34.576 KI skaper mer energibruk, men det er ogs? ideelt for ? f? en mer optimal styring av systemer. S? her skjer det veldig mye. Men det ligger et punkt 12:34.677 --> 12:38.419 midt imellom der. For at de to skal henge sammen, m? vi f? kommunisert problemet. 12:44.502 --> 12:51.848 Vi m? anskueliggj?re verden framover. Der mangler vi noe akkurat n?. Vi har f?tt fram at dette er et kjempeproblem. Politikerne har sagt at vi 12:51.888 --> 12:59.434 skal l?se det, f? ned utslippene, klare 1,5 grader. Men n?r vi skj?nner at dette begynner ? bli vanskelig, kommer motargumentene. Er det 12:59.514 --> 13:07.200 egentlig s? dyrt? Blir det egentlig s? f?lt? Der er litt av problemet at vi t?rre forskere sliter med ? anskueliggj?re dette p? en god m?te. Og s? 13:07.240 --> 13:13.406 har du kunstnere, vi har Maja Lunde i Norge f.eks. som har skrevet fantastiske b?ker om hvor ille det virkelig kan bli. Men hun er jo bare en 13:13.426 --> 13:19.492 forfatter. S? et eller annet sted imellom der trenger vi en anskueliggj?ring. Og der tror jeg at KI har en kjempemulighet til ? 13:19.592 --> 13:29.777 hjelpe oss. Takk. Det er mye komplisert politikk i dette, Elin. Absolutt. Jeg tenkte f?rst jeg skulle si at p? mitt omr?de, 13:30.097 --> 13:37.261 klimaforskningsmessig, nemlig styring av klimaomstillingen og politikkutvikling, s? tenker jeg at KI kan v?re veldig nyttig. Vi har jo 13:37.301 --> 13:46.345 ikke s? mye data som dere har. S? bare det med ... Vi st?r overfor en kjempeutfordring med ? f? samlet data. Og vi har heller ikke kommet s? 13:46.406 --> 13:59.136 langt p? ? forst? kausale sammenhenger som dere har gjort. K?re kan v?re kjempenyttig for den forskningen. Jeg er litt bekymret for noe av det 13:59.176 --> 14:11.068 samme som du sier, at det vi virkelig trenger for ? gj?re den forskningen som jeg styrer med, god, er kreativitet. Kreativ nyskaping. S? der er 14:11.108 --> 14:19.692 det viktig ? ha et realistisk forhold til hva K?re kan gj?re, og hva ... Som 14:19.732 --> 14:32.604 politikkomr?de tenker jeg at KI og klima har en del til felles. Begge er helt globale fenomener som rammer alle. Det er ogs? til felles at du m? 14:32.684 --> 14:41.689 regulere det selv om du egentlig ikke helt forst?r det? Vi forst?r egentlig ikke hvordan vi skal komme oss til netto null. Vi har mange 14:41.749 --> 14:51.294 tanker og teknologier, men hvordan vi skal gj?re det, er det ingen som egentlig helt vet. I KI er det mye usikkerhet om sammenhengene, ikke 14:51.354 --> 15:03.941 bare p? klima. Vi m? begynne ? regulere det og styre det, men vi forst?r det ikke helt. En mer fleksibel m?te ? tenke politikkutvikling p?. Og 15:03.961 --> 15:08.744 det er vi ikke spesielt gode p?. Vi er ikke s? gode p? politikkomr?der som er litt mer i flyt. 15:16.090 --> 15:32.264 Den store troen p? KI n? henger litt sammen med s?nn man har tenkt p? klima lenge. Nemlig at vi bare m? f? folk til ? v?re rasjonelle. Ta gode valg. 15:32.684 --> 15:36.567 Men alt tyder p? at det er ikke s?nn de fleste folk fungerer. 15:43.310 --> 15:54.178 De styres av f?lelser, og de styres av de gode historiene. KI kan hjelpe med s? mange av disse rasjonelle utfordringene vi st?r overfor. ? l?se 15:54.238 --> 16:06.240 faktisk tekniske ting. Men folk styres av veldig mye annet enn det. Henrik, v?r s? god. Mye bra sagt allerede. Jeg tenker den balansen, 16:06.480 --> 16:13.825 fordeler og ulemper. Det er opplagt fordeler. Optimalisering, nye materialer, prosesser, mer kunnskap. Opp mot kostnadene. Da tenker 16:13.845 --> 16:22.531 jeg det er lett ? rettferdiggj?re Bj?rns og Trudes m?te ? bruke AKI til ? forske p? klima her. Men det er en disconnect mellom den type modeller 16:22.651 --> 16:28.957 man bruker til effektive ting p? KI-siden n?, og det som faktisk driver det forbruket du snakker om i stad. Som jeg tenker er et helt annet 16:28.997 --> 16:36.964 fenomen og helt andre typer modeller enn de som faktisk er nyttige for ? forst? klima. Store spr?kmodeller, generativ KI, den type ting, det er 16:37.005 --> 16:48.409 ikke der man opplagt ser de mest hensiktsmessige anvendelsene av det. Vi ser at vi har KI-forordningen, EI Act, DSA, DMA, GDPR. Ingen av de 16:48.489 --> 16:57.412 r?rer klimasiden av KI-bruk, spesielt direkte. Det snakkes ullent om at det kan v?re relevant ? vurdere det ogs?, men det er ingen regulering i 16:57.432 --> 17:05.115 dag av hvordan man skal forst? og forholde seg til KI. EU-taksonomien, som skal si hva som er b?rekraftig og ikke, sier at 17:05.175 --> 17:12.542 datasentervirksomhet er 'enabling activity'. Det er ikke noe vi skal redusere klimaet og trykke p?, det er noe vi skal la vokse. For det er det 17:12.582 --> 17:22.105 som lar oss fikse alt det andre. Litt likt n?r man tenker i Silicon Valley. Men hva er potensialet til ? bruke KI til ? effektivisere og 17:22.225 --> 17:30.789 fikse problemer i en del sektorer som vi vet at menneskelig aktivitet uunng?elig har et h?yt klimatilbud knyttet til seg. Det kan v?re snakk 17:30.809 --> 17:38.321 om prosenter effektivisering med KI, men det kan v?re veldig ubetydelig i den store sammenheng. Vi m? ogs? tenke kritisk p? det. USA 17:38.601 --> 17:42.965 sier ikke regulere i det hele tatt. EU har fors?kt litt, men regulerer ikke effektivt. Saim Altman sier vi skal bruke en stor del av europeisk 17:42.985 --> 17:47.669 energi til ? oppn? kunstig generell intelligens, som hvis vi lager det, vil la oss fikse alt. Vi vet ikke helt hvordan AGI ser ut, men det vil fikse 17:48.009 --> 17:48.549 alt. Ogs? klimating. 17:59.879 --> 18:08.782 Og s? sier han da at kanskje vi m? ?delegge litt. Break some eggs i den prosessen der. Men da kan vi drive med litt geoengineering og fikse ting 18:08.822 --> 18:17.526 etterp? med KI. Det er den innstillingen en del av de som bygger systemene n? har. Mens de bygger modeller som tilsynelatende skal tas 18:17.566 --> 18:26.789 til AGI, men som blir som Sora 2, som lar oss generere KI-genererte videoer med deepfakes og s?nn. Som blir en ren lek som er ekstremt 18:26.929 --> 18:37.676 energitung og krevende. Det er den type bruken, den type modeller, jeg tror den som driver problemet i dag. Helt frikoblet for det, men det er 18:37.696 --> 18:44.761 nyttig KI. Det m? vi kunne klare ? skille. Vi m? kunne regulere og gj?re det veldig mye dyrere ? bruke KI til den type ting. Selv om det kan v?re 18:44.801 --> 18:50.863 veien til gjennombrudd osv. Det er problematisk. Og vi har ingen demokratisk kontroll eller debatt rundt akkurat de tingene. Vi kan 18:50.963 --> 18:54.631 komme tilbake til det med skattlegging osv. Det gj?res KI. Hva skjer i kjernen, Geir Kjetil? 19:00.511 --> 19:12.542 Jeg kunne f?lge opp p? det Henrik sa. KI er veldig bredt, mange ulike teknologier. Noen er kanskje dobbelt s? energikrevende som andre, men 19:12.582 --> 19:22.411 kanskje en milliard ganger s? energikrevende som andre. Jeg jobber med klimatilpasning. Da kan vi p? ti minutter p? en laptop pr?ve ? gi 19:22.531 --> 19:24.853 varslinger av f.eks. malaria fra et helt land. ... 19:28.132 --> 19:35.075 noen m?neder frem i tid, for ? tilpasse seg klimaendringer. Jeg tror ikke vi skal pr?ve ? begrense det, mens datteren min lager kattevideoer 19:35.135 --> 19:45.359 som sikkert krever ti ganger s? mye. Der tror jeg ogs? at vi m? klare ? skille de tingene. Noen har sagt at n?r dere gj?r klimatilpasning, m? 19:45.379 --> 19:54.802 dere ogs? tenke p? energibruken for k-en deres. Det mener jeg egentlig ikke. Hvis jeg bruker to watt-timer, er det ikke der vi skal kutte. Da er 19:54.942 --> 20:03.690 det de kattevideoene. Og der tror jeg man m? bygge opp en s?nn intuisjon p? samme m?te som at ... Jeg tenker meg om f?r jeg tar en flyreise til 20:03.730 --> 20:12.157 Afrika. Jeg tenker meg ikke om om jeg skal ta en omvei med elsykkel opp en ekstra bakke. For jeg vet at det er s? lite i den store sammenhengen. Og 20:12.237 --> 20:20.624 den samme intuisjonen tror jeg vi bare m? bygge oss opp p? KI. Vi m? litt s?nn r?ft sett forst? at det ? generere en stor video, det krever mye. 20:21.305 --> 20:30.330 Hvis du har en slags KI-agent som kommer n?, som sitter og jobber 24 timer med ting, det krever veldig mye. Det ? trene opp en gammel line?r 20:30.350 --> 20:40.519 regresjon ... Da trenger vi ikke tenke p? det. S? det ? f? kreftene og fokuset der det virkelig monner ... Og det m? bli en slags intuisjon som 20:40.559 --> 20:48.247 ligger inni oss. Det tror jeg gjelder veien framover. For vi kommer til ? trenge det ogs? til klimaadopsjon. S? vi m? huske at noen ting er det 20:48.287 --> 20:58.632 klimamitigasjon, og andre ting er det klimaadopsjon. Det f?rste temaet vi hadde tenkt ? si litt om, hvordan kan vi anvende KI til ? 20:58.652 --> 21:09.494 tilpasse oss et endret klima. Det b?r jo v?re av interesse for alle, enten man forsker p? politikk, eller man forsker p? klima i seg selv, 21:09.694 --> 21:18.376 eller man forsker p? algoritmene. Jeg kunne tenke meg ? sp?rre deg, Helge. Hvis vi skulle ta tak i en s?nn problemstilling, hvordan skulle 21:18.396 --> 21:23.879 vi gj?re det i bredden av fagene? Hva 21:24.780 --> 21:32.546 er ditt synspunkt p? det? Du skal vel liksom n? sitte og se p? oss alle, og s? skal du s?rge for at vi f?r best mulig forskning ut av helheten. Det var 21:32.586 --> 21:42.728 en kraftfull ring! Sjefen for de gode tider, eller de d?rlige, eventuelt? Nei, jeg tror jo at ... N? er det jo KI-senteret og den 21:42.748 --> 21:50.310 modellen som er blitt lansert. Det er jo ikke tilfeldig, det. N? representerer jeg et senter for global b?rekraft. Det er jo en s?nn 21:51.370 --> 21:57.591 tverrfaglig interdisiplin?r modell, hvor vi kan sitte og ha s?nne samtaler. Det blir jo veldig tydelig. Det er veldig hyggelig at 21:57.631 --> 22:06.858 informatikeren snakker om menneskelig intuisjon. Vi holder alle tverrfaglige innlegg her. Vi beveger oss fra det helt tekniske via 22:06.898 --> 22:16.827 politikken og det sosiale og inn i geofag og meteorologi. Det gj?r vi alle i dette panelet. Det er superinteressant. ? samle den type 22:16.867 --> 22:27.698 samtaler og pr?ve ? ... Bruke de samtalene til ? gj?re de avgj?rende distinksjonene for hva som er viktige og gode oppgaver for KI, og hva som 22:27.818 --> 22:36.247 vi b?r regulere. Det m? jo foreg? et sted. Og det ? kunne lage steder hvor det kan foreg?, lage prosjekter hvor man kan gj?re det, og hvor det ogs? 22:36.287 --> 22:47.933 kan gj?res med trust, som jo vi snakker om om dagen ... Det m? v?re der forskningen skal g?. Det er nok et eksempel p? at siloforskningen har 22:47.993 --> 23:00.455 utspilt sin rolle. Vi m? ha den type samtaler. Vi har et tema som heter KI for tilpasning til framtidens klima- og naturregime. Der er flere av 23:00.475 --> 23:07.276 oss med. Det m? vi ta p? alvor. Vi vet litt om hva vi skal gj?re, men vi m? gj?re mye mer. 23:10.497 --> 23:20.491 Det er jo noe politisk ? opprette. Hvordan tar vi tak i den delen av verden? For det er mye vi kan gj?re selv, men det er noe politikerne ogs? 23:20.551 --> 23:34.198 m? hjelpe oss med. EU har begynt ? lage reguleringer. Jeg sjekket f?r jeg kom hvor den l? i E?S-systemet. Da l? den s?nn ... hvis man skulle ligge 23:34.238 --> 23:44.144 der en stund og kose seg. Det er én ting ? ta tak i hvor den er rein. N? har vi f?tt en tradisjon med at vi lar v?re ? ta ting inn i E?S-avtalen hvis vi 23:44.164 --> 23:56.751 syns det er vanskelig. Den s? ut som den sklei inn i det segmentet. De siste 20 ?rene har jo Norge hatt veldig store problemer med ? ta noen 23:56.791 --> 24:02.532 strategiske beslutninger om hva vi skal bruke energien v?r til. For 24:03.313 --> 24:11.898 ti ?r siden var det reist som en stor politisk utfordring i Norge at vi hadde for mye fornybar energi. At vi hadde for mye fornybar energi fordi 24:11.918 --> 24:20.863 da var prisene for lave. Og det ble laget stortingsmeldinger om dette store problemet. Noen av oss pr?vde ? si at dette kan umulig v?re 24:21.164 --> 24:31.428 tilfelle verden trenger denne energien. Og n? er vi i motsatt ende. Politikerne klarer ikke ? ta et strategisk valg. Skal vi bruke dette til 24:31.928 --> 24:44.534 ? fortsette oljevirksomheten? Skal vi bruke det til datasentre? Det er s? sensitivt i norsk politikk. Vilje til ? skape stor enighet om det. En 24:44.574 --> 24:49.956 del av det henger sammen med kunnskapen om energi. Vi har tenkt at det er greit at folk ikke forst?r hvordan energisystemet fungerer. Det har 24:50.116 --> 24:52.497 v?rt ekstremt mye alternative fakta i debatten om kraftsystemet. 25:05.602 --> 25:15.730 Skal vi skj?nne de tingene du sier, s? m? folk skj?nne litt om hva kraftsystemet er. Og det er jo ganske stort l?ft, at man m? ... Hvis folk 25:15.750 --> 25:23.876 skal kunne f? en egen s?nn bevissthet, s? er det ganske h?yt opp de m? i forhold til dagens kunnskapsniv? for ? forst? alt som har med energi ? 25:23.896 --> 25:27.336 gj?re. Hvordan kan vi bruke forst?elsen til klimatilpasning? Vi har tatt tydelige prioriteringer i Norge. Vi skal v?re 25:27.356 --> 25:30.618 datasenternasjonen Norge. Norge sier eksplisitt at dette skal vi v?re. Vi skal v?re best p? det. Vi skal bruke energi p? det. 25:44.330 --> 25:51.475 Vi ser allerede at folk begynner ? merke at det har noe ? si for energisystemet og energipriser, at dette vil f?re til at andre skvises 25:51.495 --> 26:01.003 ut og at andre vil ta. Sammen med Stargate, som fikk str?mavtalen til datasentre i stedet for, som har opplagte konsekvenser for hva vi 26:01.023 --> 26:09.288 prioriterer og bruker dette til. S? vi har tatt et ganske tydelig valg allerede p? hvordan vi har tenkt ? bruke det. Vi har tatt et tydelig valg 26:09.308 --> 26:18.453 om ? elektrifisere sokkelen og bruke kraften til det. Og at energiintensiv industri skal f? alt de peker p?. S? vi har tatt valget at 26:18.493 --> 26:30.738 vi skal bare gj?re alt. Og ting tyder p? at det ikke fungerer. B?de KI og klima krever at man planlegger p? tvers og har en helhetlig plan. Og 26:30.778 --> 26:44.342 helhetlig plan er litt s?nn moderne p? 70-tallet p? en m?te. Det er klart at vi prioriterer alt, liksom. Tilbake til tilpasningssp?rsm?let. Vi 26:44.422 --> 26:54.984 kan mye om klima. Ogs? om hva som kommer til ? skje i ulike scenarioer. Hvordan kan vi bruke den kunnskapen der, sammen med KI, for ? kunne 26:55.044 --> 27:06.026 tilpasse oss det klima- og naturregimet vi faktisk kommer til ? f?? Vi kan begynne med Trude. Jeg likte det Kjetil sa om at man kan varsle om 27:06.066 --> 27:10.069 malaria, men jeg tror vi har kjempemuligheter til ? gj?re en bedre jobb med ? varsle ekstremer. 27:23.757 --> 27:28.940 Man f?r varsel om ekstremer lengre tid i forveien. Og det er en viktig oppgave ? f? n?dd ut til folk med varslene om ekstremer. 27:41.307 --> 27:57.115 Men jeg tror at det med ekstremnedb?r, t?rke, flommer, heteb?lger, har v?rt vanskelig for oss klimaforskere ? gj?re en god jobb med. Og jeg er 27:57.815 --> 28:05.059 sikker p? at det er et omr?de der KI virkelig kan hjelpe oss fremover n?. Vi jobber med begge med ekstremer og bruker KI til ? forst? eksisterende 28:05.079 --> 28:08.502 ekstremer. Men det holder ikke om vi sammen skriver en t?rr fagrapport og sender den til Stortinget. 28:20.170 --> 28:29.977 Vi trenger et eksempel p? hva som skjer n?r to lavtrykk smelter sammen s?r for Norge og kommer inn av en litt rar vinkel. S? f?r du ekstremv?ret 28:29.997 --> 28:39.324 hans etterp?. Da ser vi konsekvensene. Der hvor barna v?re genererer kattevideoer, s? kan vi n? generere et eksempel p? hva som skjer n?r et 28:39.364 --> 28:47.609 ekstremv?r kommer dundrende inn over Norge. Da blir det bare et eksempel. Det er ikke sikkert det blir fakta, men det gir Det er 28:47.710 --> 28:54.012 effektivt n?r det kommer et synlig eksempel, enten et faktisk et eller en godt skrevet bok. 28:58.454 --> 29:07.818 Ting ble anskueliggjort p? en god m?te. Men det er en mynt med to sider. La meg ta ett poeng til. N? snakker vi veldig fra det godes perspektiv her. 29:07.878 --> 29:15.065 Vi alle ?nsker det samme. Sp?rsm?let er hvordan vi skal gjennomf?re det p? en best mulig m?te. Men det er andre perspektiver der ute. Vi er ogs? i 29:15.125 --> 29:22.656 en slags informasjonskrig rundt dette med hele den gr?nne omstillingen. Rundt behovet for klimatilpasning. Rundt balansen 29:22.696 --> 29:31.382 mellom utslippskutt og klimatilpasning. G?r til FNs klimapanel, f.eks., og alle tingene de sliter med. S? er det ? f? aksept for at 29:31.782 --> 29:41.970 scenarioene som viser fremtiden, uansett ... Hvis du skal holde 1,5-2-gradersm?let, s? m? vi kutte CO2-utslipp og dermed legge om 29:41.990 --> 29:49.636 energiproduksjonen. S? ? si uansett. Hvor kommer den konklusjonen fra? Jo, den kommer fra en haug med scenarioer som er kj?rt gjennom 29:49.676 --> 29:57.275 ?konomiske modeller. De er generert av forskningssentre rundt omkring i verden, og det var en ganske tung jobb. N? er ikke det en tung 29:57.315 --> 30:04.719 jobb lenger. N? kan hvem som helst generere et s?nt scenario gjennom generativ AI. Da er vi ogs? klar over at land og interesser som har andre 30:04.779 --> 30:09.401 perspektiver, og som kanskje ?nsker at man skal fortsette fossiladeren lenger, de er ogs? n? i gang med ? generere den typen 30:09.421 --> 30:15.925 scenarioer. Det er en mye n?rmere problemstilling at vi f?r en helt annen akt?r inn i informasjonskrigen. Vi kan ikke satse p? at vi 30:15.985 --> 30:24.050 forskere lenger sitter p? gullstandarden fordi vi har jobbet s? lenge med det. N? kan alle gj?re den samme jobben. Jeg 30:26.113 --> 30:35.363 skal ?pne for sp?rsm?l fra salen etter hvert, s? tenk p? det. Det man gj?r med ? forske og f? bedre modeller, bedre scenarioer og alt det her, lar 30:35.383 --> 30:41.289 oss jo forst? litt bedre hva som vanligvis vil skje. Varsle om ekstremv?r osv. vil v?re litt mer kortsiktig og ekstremt nyttig for en 30:41.309 --> 30:49.455 del ting. Men mange i n?ringslivet bruker det til ? tilpasse p? langsiktig. Hvordan bygger vi byggene v?re for ? h?ndtere en fremtid 30:49.495 --> 30:55.299 som vil se annerledes ut? Hvordan h?ndterer vi infrastrukturen i byene v?re? Alt dette hjelper oss ? modellere ved at vi f?r bedre modeller. Men 30:55.339 --> 31:01.624 ogs? hvordan vi kan bygge ting annerledes og hvordan de vil h?ndtere ting. B?de ved ? simulere og modellere gj?r vi veldig mye der. Som skaper 31:01.664 --> 31:07.528 en slags moral hazard if you will, som inneb?rer at hvis vi n? fokuserer veldig mye p? klimatilpasning, som vi begynner med, s? blir det litt 31:07.568 --> 31:12.810 mindre incentiver til ? jobbe med det reduksjonsm?let. Vi gir opp 1,5-gradersm?let ca., det har vi nesten allerede gjort. Og s? begynner 31:12.830 --> 31:18.732 vi heller ? tilpasse oss, for dette vil skje uansett. Og da begynner man ? f? den vektingen som ser helt annerledes ut n?. Litt ogs? fordi sjefen i 31:18.772 --> 31:24.614 USA sier at klimaendringer er en stor hoax. S? det er p? en m?te ikke lov ? egentlig jobbe med den siden av det. S? da blir det mye fokus p? 31:24.654 --> 31:31.996 tilpasning. Og der kan det v?re nyttig, men det er dumt hvis vi n? g?r all in p? tilpasning. Det er jeg enig i. Det skal jeg komme tilbake til, for vi 31:32.016 --> 31:44.124 m? balansere ting. Men du ... Hva hadde h?nda oppe? Jeg nevnte tverrfaglighet her. Forskjellen p? arkitekter og byggingeni?rer er 31:44.164 --> 31:53.893 at du kan f? veldig elegante hus som raser sammen uten byggingeni?ren, og s? kan du f? ganske stygge hus hvis du har byggingeni?r. Jeg har tenkt 31:53.913 --> 32:03.215 p? at vi trenger den kombinasjonen av ... Som teknolog skj?nner jeg ikke alltid hvordan organisasjoner skal tilpasses. Hvordan vi skal g? inn i 32:03.275 --> 32:18.456 regulering osv. Men vi har ogs? sett at mange sier at de tar i bruk KI for ? varsle ekstremv?r og la landet ta ... La et land forholde seg til 32:18.516 --> 32:33.402 varslene. Det krever mye ressurser ? utvikle slike systemer. Det haster litt ? f? nok teknologer inn i dette landskapet ogs?. N? tror jeg 32:34.202 --> 32:43.826 kanskje mange unge trekkes i litt andre retninger igjen. Informatikk er det st?rste instituttet p? UiO, og det er fordi det krever utrolig mye 32:44.686 --> 32:54.475 ... ? f? systemer til ? samvirke i praksis, ? f? ting ut, at de rette beslutningstakerne ser det n?r de ser det, og at alt dette g?r dag for dag 32:55.035 --> 33:05.464 ... Det at vi s?rger for at nok teknologer ogs? har denne interessen n?r de g?r framover, og f?r tett nok tverrfaglig 篮球即时比分_nba比分直播-彩客网重点推荐 til ? skj?nne 33:05.484 --> 33:11.189 hvordan den skal gj?re dette, tror jeg ogs? er et viktig omr?de for UiO. Jeg 33:12.590 --> 33:24.519 ble tatt av det Bj?rn sa om hvor mange man kan generere sitt eget fremtidsscenario her. Dette vet ikke jeg s? mye om, men jeg ser at vi har 33:24.559 --> 33:32.345 behov for b?de kortsiktige og langsiktige scenarioer. Og hva slags tidsperspektiv vi legger p? dem blir avgj?rende for hva vi ser. 33:32.645 --> 33:43.549 Hvorvidt KI bidrar til mer kortsiktighet eller mer langsiktighet, er ikke klart for meg enn?. Og om det setter oss bedre i stand til ? 33:43.809 --> 33:52.412 kontrollere, eller tenke rundt, de tidsperspektivene. Eller om den lukker oss inne i en type presentisme, eller gir uforpliktende 33:52.452 --> 34:02.935 langsiktighet. Dette vet jeg ikke nok til ? kunne vurdere, men det er et sp?rsm?l vi m? tenke n?ye p?. Jeg vil f?lge opp det Ketil sa. 34:03.035 --> 34:12.302 Tverrfaglighet og at man s?rger for at teknologer og klimaforskere jobber tett sammen, er ekstremt viktig. 34:13.003 --> 34:22.190 Selv om det ligger enorme muligheter for ? bruke KI innen klimaforskning, og bruker vi det riktig, s? kan vi virkelig gj?re store 34:22.230 --> 34:33.535 fremskritt fremover. Men bruker vi det naivt og feil, med en tanke om at n? skal KI l?se problemet for oss, og s?rlig n?r det gjelder langsiktige 34:33.615 --> 34:42.879 klimaendringer, s? tror jeg faktisk at det kan f?re til at forskningsfeltet v?rt stagnerer, i stedet for det motsatte. S? det er 34:42.919 --> 34:48.602 veldig viktig ... Vi har en enorm mulighet her, men det er like stort ansvar ? bruke det riktig n?. Og da tror jeg ferdigfaglighet blir 34:48.642 --> 35:00.224 kjempeviktig. I denne serien skal vi ogs? utp? v?ren ha temaet AI i forskning. Det kommer ogs? ved en anledning. Da skal vi diskutere hva 35:00.244 --> 35:09.229 det betyr for forskningen generelt. Da har vi hele bredden av spekteret. Jeg skal bevege meg litt videre. I g?r hadde vi gleden av ? 35:09.389 --> 35:21.657 ?pne et nytt KI-senter i Norge. Ett av de seks. Det har f?tt det gode navnet Trust, alts? tillit. Det er jo et djervt navn. Og vi fors?ker jo ? 35:21.717 --> 35:35.946 forst? hva tillit er. Hva er et tillitsverdig KI-system? Jo, det er vel et system vi har tillit til, h?per vi, men hvordan gj?r vi det? Vi mener at 35:36.046 --> 35:49.810 b?rekraft er en del av det. Skal vi ha tillit, m? systemene vi utvikler og bruker, v?re b?rekraftige. Da g?r jeg langt forbi tilpasning til 35:49.870 --> 36:07.110 klima. Hvordan skal vi tenke n?r vi skal lage tillitsverdige AI-systemer, som tar b?rekraft p? alvor? Hvordan skal vi tenke p? den 36:07.130 --> 36:15.714 problemstillingen? N? har noen av oss tenkt litt, s? n? skal jeg begynne med deg, Geir Kjetil. For vi har sittet og diskutert dette. V?r s? god. 36:19.375 --> 36:19.575 Ja ... 36:27.335 --> 36:43.266 Jeg tror det er viktig f?rst ? koble sammen de teknologene og f? de om bord i den retningen. At vi skal ha det som et perspektiv hele tiden. S? tror 36:43.286 --> 36:53.027 jeg vi skal tenke p? hvordan energieffektiviserer vi de systemene som uansett er der? Der er det mye forskning som kan g? p? om du trenger de 36:53.067 --> 36:53.748 st?rste modellene. 36:56.890 --> 37:05.554 S? tror jeg vi skal tenke p? litt som vi snakket om med bruken av dem. I hvilken retning vi skal bruke dem. 37:07.215 --> 37:17.061 For meg er det viktig ? tenke at klimatilpasning og energi?konomisering er noe vi m? bruke KI 37:17.081 --> 37:19.022 til. S? skal vi s?rge for at ... 37:23.731 --> 37:33.613 Det var et vanskelig sp?rsm?l. Vi har ikke helt l?st det enn? med tr?stsenteret. Om fem ?r tror jeg kanskje vi har l?st det. Det er jeg enig 37:34.033 --> 37:42.936 i. Dette er et vanskelig sp?rsm?l. Derfor stiller jeg dette sp?rsm?let. Da kan vi g? videre. Vi g?r den veien n?. Henrik, du er ogs? 37:43.036 --> 37:49.723 med i Tr?st. Fokuserer mye p? sosiale aspekter ved b?rekraft. Men p? klima- og milj?siden er det ? se forbi klimaet. Da kreves det andre typer 37:50.044 --> 37:50.885 analyser. Bedre analyser, bedre data. 37:59.658 --> 38:08.001 Mange er i gang med prosjekter p? livsl?psanalyser, som anbefaler hvordan vi kan forst? hvordan disse systemene g?r p? b?de 38:08.061 --> 38:17.784 energiforbruk og karbonutslipp, men ogs? vannforbruk, landbruk, omr?debruk og mineraler og alt mulig det andre rundt. Det blir en del av 38:17.804 --> 38:25.807 det ogs?, hvis vi skal snakke om b?rekraft. Men vi trenger mer data. De store selskapene gir oss ikke data. Vi m? p? hvor mye energi de bruker, 38:25.907 --> 38:34.573 hvor energiintensive de er, hva slags avtrykk det er. Vi har ikke noen gode indikatorer for ? m?le eller vurdere hva som er bra. S? tror jeg det 38:34.593 --> 38:41.218 blir ekstremt vanskelig for oss ? si at dette er bra KI-forskning, dette er ikke. Man f?r en s?nn type argumentasjon at dette er en grunnmodell 38:41.238 --> 38:45.580 som kan brukes til dette p? sikt, vi trenger det som grunnlagsforskning. Vi m? ha mer kunnskap om hva som er avtrykket, og 38:45.600 --> 38:47.781 hvorvidt vi skattlegger, h?ndterer det, forbyr eller klarer ? prioritere p? bakgrunn av det. 39:12.507 --> 39:23.915 Vanskelig problemstilling. Jeg tenkte ? si det man ville gjort for 30 ?r siden. Hvis det var en helt ny problemstilling som gjelder hele verden. 39:24.396 --> 39:32.982 S? ville man jo tenkt, oi, kanskje vi skulle laget et KI-panel, globalt sett, med forskere som kunne g?tt sammen og laget et globalt 39:33.002 --> 39:47.089 faktagrunnlag. Og s? kunne vi laget en konvensjon, der vi kunne samles og det lages et regelverk. Og s? kunne vi ha utviklet regler for hvordan 39:47.130 --> 39:49.091 vi som menneskehet skal h?ndtere dette. 39:52.028 --> 40:04.299 Det er ikke mulig ? gj?re i dag. P? det globale niv?et er det ikke mulig ? bygge opp ... Det m? bli frivillige initiativer. Det kan man ha. P? det 40:04.340 --> 40:12.387 globale niv?et er det viktig ? ha frivillige initiativer som g?r p? forskning. Og forsknings篮球即时比分_nba比分直播-彩客网重点推荐 og kunnskapsutvikling. Og 40:12.447 --> 40:26.120 sikkert ogs? noen koalisjoner av de villige til ? tenke etisk rundt KI. Men ? bygge opp en s?nn global struktur er ikke mulig. Men EU er den eneste 40:26.140 --> 40:32.726 akt?ren som har klart ? h?ndtere ... Eller i hvert fall g? imot Silicon Valley-akt?rer. 40:33.947 --> 40:46.497 S? der kommer det til ? bli viktig. Mens i Norge s? ... Vi vet fra forskning p? klima og milj? at skal den norske forvaltningen h?ndtere et 40:47.097 --> 40:56.943 problemomr?de, s? m? de bygge opp kompetanse p? det. De m? ha sterke folk i departementet, men ogs? enheter i de andre departementene som s?rger 40:56.983 --> 41:04.387 for ? tenke om dette. Da m? man gj?re noe med ... Mer grunnleggende ting rundt hvordan den norske forvaltningen fungerer. 41:07.055 --> 41:17.045 Dette gjelder alle sektorer, egentlig. Det er vanskelig ? se hvilken sektor som ikke ber?res. Si noe helt grunnleggende. En god ting kan ikke 41:17.105 --> 41:25.329 sies for ofte. Hva gj?r at vi har tillit andre steder i samfunnet? Til mennesker eller til bedrifter? Det er jo erfaring med dem, og det er 41:25.429 --> 41:37.276 ?penhet. En kjennskap, en f?lelse av at de har gjort noe bra, og jeg kan grave i det dersom jeg trenger. Det gjelder KI ogs?. De f?rste 41:37.316 --> 41:42.595 spr?kmodellene oppga jo ikke kildene sine. Det hjelper p? tillit bare der, men det fungerer ikke hvis du ikke har ?pne datasett i b?nd. Du vet 41:42.615 --> 41:48.317 hvordan den spesielle modellen du bruker er laget. De aller fleste kommer ikke til ? bry seg, men noen ganger lurer du ... N?r du kj?per en 41:48.337 --> 41:53.999 matvare, sjekker du vaskeseddelen som st?r der. Hva er det inkludert? Hvis du kj?per et klesplagg, kan du sjekke om det er laget av barnearbeid 41:54.019 --> 41:54.279 et sted. 42:08.564 --> 42:17.989 Det samme gjelder KI-systemer. Vi m? ha en klar ?penhet. N? er det i utviklingsfasen, da er det alltid litt vanskelig. Men det begynner i 42:18.069 --> 42:27.279 hvert fall med ?penhet rundt dataene. Der har vi et stort reguleringsproblem per i dag. Det er et vanskelig sp?rsm?l ? stille. 42:27.339 --> 42:38.601 Som klimaforsker har man slitt lenge med det at enkelte milj?er ikke har tillit til en, det er tilfellet uansett hvor lang utdannelse man har og 42:38.641 --> 42:48.924 hvor grundig forskning man pr?ver ? gj?re. Det er et vanskelig og komplisert sp?rsm?l, men det er viktig at vi gj?r det vi kan At 42:52.526 --> 43:04.354 vi ikke g?r for lettvint til l?sninger, at vi gj?r en grundig jobb og tverrfaglighet igjen. Jeg kan ikke si s? mye i tillegg til dette, 43:04.374 --> 43:14.440 bortsett fra at jeg tror det er viktig ? innse at tilliten kommer ikke fra KI sj?l, p? en m?te. Den m? bygges andre steder og p? andre m?ter, s?nn som 43:14.540 --> 43:25.748 Bj?rn nettopp snakket om, og s?nn som egentlig alle har snakket om. At institusjoner har en rolle ? spille der, h?per jeg jo virkelig. Vi ser jo 43:25.788 --> 43:33.757 n?, har jo sett n? de siste par ?rene, hva som truer akademiske institusjoner, og hva som styrker dem. S? vi m? jobbe med de 43:34.078 --> 43:45.521 institusjonene vi har, og styrke dem, ivareta dem. Vise dem kj?rlighet og omsorg og tenke at det er det beste vi har for ? bygge tillit. Dette med 43:45.721 --> 43:54.864 politisert forskning innenfor klima, dette er jo virkeligheten. Det kommer ikke til ? endre seg, det kommer til ? bli vanskeligere. Da m? vi 43:54.944 --> 44:04.567 forankre tilliten i noe som folk kan f? tillit til over lang sikt, bygge erfaringer med. Da er institusjoner noe av det vi kan ha ? bygge videre 44:04.607 --> 44:15.634 p?, tror jeg. Vi har jo definert og diskutert dette tillitsbegrepet opp mot hva skal til. Og s? er det selvf?lgelig et bevegelig m?l. Og dette 44:15.674 --> 44:27.024 handler om ? f? tillit av andre. Vi lever jo i et land hvor tilliten til v?re politikere er relativt sett h?y. Den har vel ogs? tidvis v?rt 44:27.124 --> 44:34.507 utfordra i noen sammenhenger. Mens vi lever i en verden hvor tilliten til politikerne i andre land ikke n?dvendigvis er like h?y, og det er et 44:34.567 --> 44:45.392 stort gap mellom befolkningen og de som faktisk beslutter ting. Og da kommer vi over i dette de mer ... De overordna demokratiske sp?rsm?lene 44:45.452 --> 44:56.835 eller autokratiske sidene ved den verden vi lever i. Det tenkte jeg vi skulle ha som et siste tema f?r vi ?pner opp for sp?rsm?l. Dette med hele 44:57.015 --> 45:08.782 verden og ... som best?r av en haug med nasjoner. Noen sv?rt store med klare autokratiske trekk. For ? si det mildt. Og noen, og kanskje f?rre 45:08.802 --> 45:19.073 og f?rre, som p? en m?te er de demokratiene vi liker med oss selv. Og vi har jo ogs? utfordringer knytta til demokratiet. Og da, Henrik, du har til 45:19.093 --> 45:28.363 og med skrevet en bok om k?ret demokrati, s? du kan f? lov til ? ta noen refleksjoner f?rst. Ja. Det er ekstremt vanskelig. Det er lett ? se at vi 45:28.623 --> 45:37.406 ?nsker ? ha mer kontroll over den type b?de modeller og produkter og tjenester og infrastruktur som bygges ut rundt KI i dag. Men s? ser vi 45:37.426 --> 45:49.914 ogs? at den vi f?r, er bygget ut av og i og med USA. Som n? knytter sp?rsm?l til teknologi og KI, helt eksplisitt og direkte til tollbarrierer, 45:50.014 --> 45:58.843 eksportkontroll p? GPU-er, s?nne type ting som vi hadde trengt. Trump legger ut en melding og sier at den reguleringen dere n? pr?ver p? i EU ... 45:59.403 --> 46:06.390 Ikke pr?v, stopp, ellers m?tes dere med skyh?ye tollbarrierer, og dere f?r ikke kj?pe de chipene dere trenger til ? bygge egne modeller, f.eks. 46:06.890 --> 46:14.895 Da f?r man et dilemma i EU. De har latet som at de fortsetter med reguleringene, men de slutter ? h?ndheve og g? etter selskaper som 46:14.955 --> 46:24.081 bryter dem, i frykt for ? straffes av det. Norge i den sammenheng blir ekstremt lite. Det ? tenke at Norge n? skal forby Soria II eller noe som vi 46:24.101 --> 46:31.466 syns er farlig, blir nesten utenkelig. S? det er et mye tettere 篮球即时比分_nba比分直播-彩客网重点推荐 med EU, og det ? m?tte jobbe veldig aktivt for at EU skal st? p? 46:31.826 --> 46:39.929 det de driver med n?. Samtidig som man bygger opp en alternativ infrastruktur i EU som er kapabel til ? utgj?re et alternativ for det vi 46:39.969 --> 46:47.371 trenger p? klimasiden, men ogs? generell k?reteknologi som vi trenger i samfunnet. Regulere det verste uten ? skape fullstendig krise, 46:47.611 --> 46:54.172 samtidig som vi bygger opp p? litt lengre sikt et alternativ til EU. Det er eneste muligheten ? h?ndtere det akkurat n?, da. Elin, du har 46:54.212 --> 47:05.571 allerede nevnt Europa. Europa er for s? vidt ... Vi er Europa. Hvordan ser du Europas rolle i dette bildet s?nn totalt sett? Jeg er enig i at 47:05.611 --> 47:17.356 dette er ... at det er EU som er det best organiserte stedet til ? h?ndtere disse diskusjonene. Men det er kjempeskummelt hvordan AI kan brukes av 47:17.476 --> 47:27.500 ikke-demokratiske krefter. Det gjelder vel òg hele forskningen. Vi vet allerede i dag at det er masse falske tidsskrifter og konferanser og 47:27.580 --> 47:39.744 alt det her. Det kan bare gj?res mye mer ... Det kan bli mye vanskeligere for folk ? skille hva som er forskning og hva som ikke er forskning. 47:39.764 --> 47:45.186 Det henger jo sammen med ... Det ? ha fri forskning og det ? ha ?pent demokrati, det henger jo sammen. 47:48.443 --> 47:49.523 Jeg 47:51.504 --> 47:58.846 kan g? tilbake og tenke p? energisystemer. Jeg har skrevet en bok om energi og energiproduksjon, som kommer i mars. Det er deler av verden 47:58.906 --> 48:03.867 man fortsatt industrialiserer, hvor man ikke trenger ? g? via fossilalderen. Man kan hoppe rett p? de fornybare systemene. 48:11.309 --> 48:23.533 Det samme gjelder n? KI. De har fantastiske muligheter for ? bygge et effektivt, velfungerende, godt klimatilpasset samfunn fra starten 48:23.573 --> 48:32.196 av. N?r du er i den situasjonen at du skal bygge flesteparten av byene som skal st? for framtiden, de f?rste spadetak skal tas n?, det er en enorm 48:32.256 --> 48:40.576 mulighet. Du trenger et fungerende lokalsystem, et fungerende lokaldemokrati, vil de si. Men du trenger ikke n?dvendigvis et globalt 48:41.076 --> 48:52.181 system som fungerer av den grunn. For da st?r enhvert land eller enhver gruppering mye st?rre grad i stand til ? legge sine egne planer. Det tror 48:52.201 --> 49:03.829 jeg er en god utvikling. Jeg vet ikke om det er retninga du h?pa jeg ville g? i, men jeg kommer tilbake til det. N?r du sier autokrater i sammenheng 49:03.849 --> 49:14.111 med klima og KI, s? kommer jeg tilbake til dette med risikoen for at man bruker KI til ? l?se klimaproblemet p? en annen m?te enn det vi tenker p? 49:14.171 --> 49:29.777 som plan A. Det som f.eks. Elon Musk foreslo, har ikke kun tvil om at det er gjenf?rbart. Det er ikke engang sikkert at det er spesielt dyrt for ham. 49:29.837 --> 49:41.864 Jeg tror ikke vi m? v?re naive og tenke at dette er science fiction og noe som aldri kan skje. Jeg tror at n?r en mektig mann som Elon Musk tenker p? 49:41.904 --> 49:51.063 dette og skriver om det, s? er det en reell sjanse for at KI blir brukt p? denne m?ten, og det m? vi v?re forberedt p?. N? tar jeg Kjetil, og s? skal 49:51.103 --> 50:01.429 vi ?pne for sp?rsm?l. Vi som jobber med teknologi ... Jeg tror jeg drev med maskinl?ring allerede p? 80-tallet. Hva slags ansvar har vi i denne 50:01.449 --> 50:17.784 sammenheng? Jeg tenkte ? ha et litt dystopisk, filosofisk fors?k. Det er jo ikke mitt omr?de, men med historie. I Romerriket kunne de ha ca. tre 50:17.824 --> 50:27.050 slaver per frie person. Det var s? mye de klarte ? undertrykke. S? kom det senere mer avanserte samfunn. Da kunne en enda mindre andel av 50:27.090 --> 50:30.611 befolkningen klare ? undertrykke en enda st?rre andel. Med 50:34.052 --> 50:44.593 en del av Stalin osv. Noen ganger tenker jeg det med KI er den der evnen til at en stadig mindre ... Det er mitt store skrimebilde. Benjo hadde et 50:44.653 --> 50:45.934 skrimebilde i g?r om denne ... 51:03.350 --> 51:12.461 Den kunstige, ekte generelle intelligensen som skal komme og ta over. Men han nevnte ogs? det andre scenarioet. Det er kanskje det jeg er mest 51:12.541 --> 51:25.116 redd for. At dette blir en s? effektiv m?te ? kontrollere informasjon p? og manipulere p? at ... Et lite knippe selskaper, eller mektige 51:25.156 --> 51:35.426 personer, Elon Musk ... Tror jeg har litt av de ambisjonene. Har et s?nn ekstremt sterkt verkt?y for kontroll. Og det tenker jeg p? som 51:35.466 --> 51:47.080 maskinl?rer litt s?nn ... I hvilken grad er det juvel use p? et s?nn helt generisk niv? at jeg bidrar til den ... Effektiviteten i p? en m?te ? 51:47.140 --> 51:56.733 operasjonalisere og rulle ut den type teknologi som kontrollerer informasjon, og ogs? kan kontrollere mennesker? Du er inne p? det som 51:57.253 --> 52:10.940 Bengo var inne p? i g?r, hvor en sier at b?r ikke vi i akademia utfordre de store selskapene og lage v?r egen modell som er helt transparent og helt 52:10.980 --> 52:21.166 ?pen for alle. Det er en fascinerende tanke. Det kommer til ? koste, men det er allikevel en fascinerende tanke. F?r vi g?r med noen sp?rsm?l ... 52:21.306 --> 52:32.411 Helge, hvor er du? Det er bare et rom falt, liksom. Det funka jo ikke p? lang sikt, dette undertrykkelsessystemet. Og det er jo det historien 52:32.511 --> 52:44.596 l?rer oss. At den type totalit?re overv?kingssystemer i forskjellig form, de faller jo alltid. Er dette s? unikt i historisk sammenheng at vi 52:44.637 --> 52:53.481 kan forvente at KI leverer en type kontroll og en type makt som aldri noen har sittet med f?r? S?nn at det er unikt historisk sett, og vi kan ikke 52:53.521 --> 53:01.766 bruke Roen som eksempel? Det kan godt hende, men jeg kjenner at jeg blir alltid litt s?nn ... Den fysiske verden fins jo der fortsatt. Det g?r 53:01.846 --> 53:12.731 folk i gatene, de m?ter hverandre. Det kommer ekstremv?r. Det er p? en m?te den ... Tendensielt griper den fysiske verden inn i den politiske 53:12.771 --> 53:20.793 kontrollen p? et tidspunkt, og gj?r at ting ikke best?r. S? jeg tror rom faller denne gangen ogs?, i s? fall, hvis vi skal jobbe med ditt 53:21.053 --> 53:28.935 metafori. Takk til dere, alle s? langt. Da er det sp?rsm?l. Da begynner vi, da tror jeg. Da tar vi den f?rst, og s? deg. V?r s? god, der. Der borte. 53:28.955 --> 53:30.456 Tusen takk. Tre sp?rsm?l, i hvert fall. Ja, v?r s? god. 53:35.733 --> 53:45.079 Jeg har lyst p? ? spille inn én ekstra ting. Det er at jeg f?ler at noe vi virkelig gj?r n?, er at vi skyter spurv med kanoner. Vi bruker enorme 53:45.299 --> 53:54.541 modeller til ? l?se relativt enkle problemer. Jeg er statistiker, men p? fritiden er jeg veldig interessert i fugler. Jeg har testet 53:54.561 --> 54:02.506 Google-gamene i Chat.rp og de andre modellene p? ? kjenne igjen bilder av ulike fugler. De har blitt veldig gode, men sant ? si - Cornell 54:02.546 --> 54:17.018 universitets app p? mobilen ... Den er samme niv? og enda raskere, og bruker en titusendedel av energiforbruket. Dette er to ting vi kan 54:17.058 --> 54:30.569 gj?re for ? f? modellene mye mer effektive. Det ene er Elin via politikk og samfunn, med at det siste som m? skje n?, er at politikerne tenker AI er 54:30.629 --> 54:41.103 framtiden og genialt, vi gir dem billig str?m. Gir vi dem billig str?m, s? kaster de bort str?mmen. Det andre er at Geir og de andre p? Ifi m? 54:41.243 --> 54:51.272 utdanne de neste generasjonsteknologer, og vi m? f? dem ut i masse forskjellige anvendelser til ? lage effektive modeller som bruker en 54:51.312 --> 55:04.193 titusendedel av str?mforbruket. Da tar vi der borte, og s? har vi der nede. V?r s? god. Ja, AI kommer selvf?lgelig til ? revolusjonere v?re 55:04.233 --> 55:12.817 liv, og i helsesektoren og mange andre vil det ha stor betydning. Jeg er likevel veldig redd for det som ligger foran oss n?r det gjelder 55:12.937 --> 55:16.980 klimamanipulering. Det 55:18.122 --> 55:29.354 kommer til ? prege fremtiden. Elon Musk nevnte her i sted, make America safe again. Kommer til ? bli et slagord, muligens. Fordi du kan f? til 55:29.454 --> 55:35.538 skys?ing, jernspon i havet. Det 55:35.558 --> 55:44.403 er klart at visse regioner kommer til ? benytte seg av det, og da vet vi ikke hva de geologiske, fysiske konsekvensene blir for resten av 55:44.443 --> 55:53.787 verden. Dette er noe av det som m? tas tak i. En eller annen form for internasjonal regulering, ellers vil vi oppleve at science fiction er 55:53.847 --> 56:06.496 med oss om 40 ?r. Da tar vi en runde i panelet. Det f?rste der, og s? der. Da har vi to til. Det er de to siste. Der, ja. Jeg peker der, riktig. Takk for 56:06.556 --> 56:19.647 en god diskusjon. I en litt Disney-verden som man kan bruke Ai for det onde, og jeg tror ikke man klarer ? gj?re Ai sikker mot det. Men 56:19.667 --> 56:27.770 i midten s? har man p? en m?te et problem. S? med tanke p? ? gj?re AI idiotsikkert, og unng? at en ingeni?rstudent skal bygge en bru som 56:27.870 --> 56:36.353 faller sammen fordi de har brukt sand istedenfor betong f.eks., er det mulig ? gj?re AI s? idiotsikkert? Eller eventuelt, hvordan kan man 56:36.553 --> 56:43.136 kanskje gjennom Trust f? Godt sp?rsm?l. Da tar vi det siste, og s? tar vi en rad gjennom. 56:55.936 --> 57:05.321 Hei, hagen heter jeg. Hva er rollen i forskningen? Vi har v?rt inne p? at store spr?kmodeller kan brukes til ? lage ting som ser ut som forskning. 57:05.801 --> 57:15.387 Men vi har v?rt inne p? litt upresis begrepsbruk. Hva kan v?re stor spr?kmodell, hva kan skygge for at du egentlig snakker om statistikk? 57:16.127 --> 57:22.130 Det har v?rt en stund siden jeg tok grunnkurs i statistikk, men det er masse ting man m? v?re forsiktig med, forskjellige signifikante 57:22.170 --> 57:31.020 kriterier, at man ikke bruker P-hekking og alt mulig s?nt. ... og s? 57:31.521 --> 57:39.288 ?pner det for veldig godt betalte forskningsmilj?er der det plutselig er helt greit ? drive med d?rlig statistikk uten ? m?tte ... Sp?rsm?l to. 57:39.329 --> 57:42.732 Skal forskningen ikke v?re basert p? prinsippet med trust but verify? 57:58.323 --> 58:11.051 Det er noen kommentarer og noen sp?rsm?l. Jeg tror jeg har klart ? fange opp noen av sp?rsm?lene. Vi skal ha en kort runde n?, s? vi kan begynne med 58:11.091 --> 58:23.718 det. Jeg skulle bare si noe til dette sp?rsm?let om ? bruke klima som v?pen ved ? bruke KI. Stipendiat er Emil Flat?, som skrev om 58:23.798 --> 58:33.680 klimavitenskapens historie. En del av klimavitenskapen begynner p? 50-tallet som et sp?rsm?l om hvordan man kan bruke klima som v?pen. Det 58:33.700 --> 58:41.462 begynner jo her. Det begynner den muligheten for ? manipulere med v?ret for ? bruke det som v?pen i oppkj?ringen til den kalde krigen. S? det er jo 58:41.522 --> 58:48.504 en s?nn, s?nn som vi historikere sier, det g?r jo i sirkel, dette her. Kommer tilbake som tragedie og komedie med jevne mellomrom. S? det var 58:48.564 --> 58:53.525 bare det som en kort bemerkning til det. Jeg 58:53.565 --> 59:02.229 kan gjerne f?lge opp. Disse tankene er ikke nye, men jeg tror teknologien er ny. Det er det som er litt skremmende. Jeg er enig i ? dele 59:02.249 --> 59:14.174 de bekymringene. Det er viktig at vi f?r p? plass internasjonale lover og reguleringer, hvis mulig. Det h?per jeg det er. Det 59:15.894 --> 59:26.358 er ikke n?dvendigvis alle utfordringer n?r det gjelder klimaforskning som vi trenger KI til. Vi har kanskje g?tt inn i en fase n? 59:26.398 --> 59:36.982 der alt skal l?ses med KI. For mange utfordringer kunne vi kanskje kommet vel s? langt med konvensjonell statistikk f.eks. Det er ogs? 59:37.022 --> 59:47.409 viktig ? v?re klar over. Vi m? bruke KI der den kan gj?re mest nytte. Jeg tenkte p? to innlegg om Trustbuttverify, men ogs? det med 59:48.150 --> 59:56.402 manipulering. Vi er veldig gode p? gjennom klassisk statistikk ? forholde oss til en verden s?nn som den har v?rt, og bruke statistikk p? 59:56.442 --> 01:00:05.186 hvordan ting var. Vi h?ndterer influensa hvert ?r, og s? kommer covid. Og s? blir vi s?nn, oi, men hva gj?r vi n?? For dette var jo veldig 01:00:05.246 --> 01:00:12.609 annerledes. Hvilken erfaring skal vi bygge p?? En annen ting, vi er gode p? flom. Vi har hundre?rsflommer. Vi vet akkurat hvor h?yt det blir hver 01:00:12.649 --> 01:00:22.132 hundrende ?r. Og s? f?r du klimaendringer, og s? er det, ja, hva gj?r vi da? Hvor kan vannet komme n?? Hvor h?yt kan det egentlig g?? Vi m? bevege 01:00:22.172 --> 01:00:34.835 oss ut fra en situasjon der vi kan p? en m?te ... Vi har ikke alltid tatt inn forskjellen p? ? basere oss p? erfaring, til ? pr?ve ? finne de rette 01:00:34.895 --> 01:00:43.937 tiltakene i en verden som er annerledes. Hvis vi skal begynne ? si at klimaet er ikke som det har v?rt de siste 200 ?rene, det er ikke gunstig 01:00:43.977 --> 01:00:53.699 for menneskeheten lenger, skal vi n? sette opp ... La oss pr?ve noen satellitter med speil for ? kompensere for det igjen? En mye 01:00:53.779 --> 01:01:02.924 vanskeligere epistemologisk situasjon der vi skal begynne ? snakke om scenarioer og kombinasjoner som er langt utfor ... Hvis vi bruker 01:01:02.964 --> 01:01:17.314 maskinlangsanalogien, vi er utfor treningsdataene v?re. Jeg tror det er et godt poeng, det med tillit til KI og tillitsverdighet til KI. Vi m? 01:01:17.374 --> 01:01:26.243 tenke p? at n?r vi beveger oss utenfor det vi kjenner, s? trenger vi ogs? sofistikerte m?ter ? verifisere om de har mening eller ikke. Det tror 01:01:26.283 --> 01:01:37.926 jeg er en kjempeutfordring. N?r vi mennesker f?r nye verkt?y og nye leket?y, s? finner vi m?ter ? bruke dem p?. Diskusjonen om 01:01:37.966 --> 01:01:45.909 klimamanipulering har v?rt her lenge. Og vi har lenge brukt det som et morsomt eksempel. Hva skjer n?r Elon Musk oppdager dette her, da? 01:01:45.949 --> 01:01:55.594 Ha-ha, liksom. N? har han gjort det. Men det der vil komme p? en eller annen form. Det jeg er bekymra for, er hva skjer n?r du f?r verkt?yene? Da 01:01:55.614 --> 01:01:57.575 vi fikk motorskj?r, trengte vi ikke s? mye disse musklene lenger. 01:02:10.283 --> 01:02:21.010 Hvilken rolle f?r vi da, som er betalt av samfunnet for ? v?re forskere? Da blir det forvaltning av kunnskap-biten. Vi skal forvalte, 01:02:21.230 --> 01:02:27.554 kommunisere og utvikle ny kunnskap. Men noen m? holde p? den kunnskapen, for den kan ikke bare ligge i KI-systemene. Det tror jeg 01:02:27.614 --> 01:02:31.077 blir en enda st?rre utfordring og ansvarsomr?de for akademia framover. 01:02:34.050 --> 01:02:42.754 Jeg vil bare si det du sa om billig str?m, at det er et problem. Det eksempelet ditt viser ... Dette er kanskje ikke s? komplisert? KI 01:02:44.115 --> 01:02:53.039 endrer ikke s? fundamentalt hvordan vi tenker om klimapolitikk. For dette med at vi b?r gj?re str?m dyrere, det har vi jo visst i 30 ?r. Og det er 01:02:53.079 --> 01:03:02.959 jo fremdeles liksom en fundamental ting som vil hjelpe oss ? bruke den begrensede ressursen p? en fornuftig m?te. Alle har reflektert litt. 01:03:03.259 --> 01:03:10.722 Henrik, en kort refleksjon omkring kommentaren som kom? Ja, jeg er helt enig. Billig str?m og de gunstige str?mavtalene de f?r, er helt 01:03:10.742 --> 01:03:18.124 meningsl?se med tanke p? ? incentivere sm? modeller, som er stort sett det vi trenger. De modellene som er nyttige, er stort sett ganske sm?. De 01:03:18.144 --> 01:03:25.347 som er veldig morsomme, er ganske store og kostnadsskrevne. Klimamanipulasjon var et moratorium p? det da jeg underviste om 01:03:25.387 --> 01:03:36.913 klimapolitikk og milj?er i 2010 ca. Det ville fjerne incentivene til ? redusere klimagassutslippene. Det har ikke noe med KI ? gj?re. Vi har 01:03:36.933 --> 01:03:46.999 visst lenge at vi kan spre partikler. Dette er ikke et KI-problem. Men det er et mye mer grunnleggende problem som kommer med at vi n? gir opp 01:03:47.059 --> 01:03:58.004 litt og skal redusere, og da m? vi tilpasse. Da blir det uunng?elig ? gj?re s?nt. Med eller uten KI. Denne debatten er vanskelig ? 01:03:58.044 --> 01:04:02.829 oppsummere. Men jeg skal bes?ke meg med ... 01:04:05.708 --> 01:04:18.781 Jeg tror ikke de er i stand til det. Jeg skal bruke to ?r. Jeg tror at vi ... Eller to setninger. 篮球即时比分_nba比分直播-彩客网重点推荐 trengs for ? forst? mer om KI og klima og KI 01:04:18.901 --> 01:04:27.209 og mange andre ting. Og ikke minst s? m? vi jobbe tverrfaglig, for det er brede, store problemstillinger som vi m? jobbe p? tvers av fagene for ? 01:04:27.369 --> 01:04:38.178 l?se. Takk til dere for bidragene i dag. Og takk til dere som er p? stream. Og takk til dere som kom hit. N? er KI og klimadiskusjonen, eller 01:04:38.238 --> 01:04:48.727 samtalen, over. Og s? er det vel m?tt til neste. Det er ikke berammet enn?, men vi skal bl.a. ha en seanse her om KI og kunnskapsutvikling, 01:04:48.787 --> 01:04:56.913 eller KI og forskning som s?dan. Hva betyr det for forskningen generelt. S? hjertelig velkommen tilbake, og takk for at dere kom p? 01:04:56.953 --> 01:04:57.354 morgenquizen.