Raderad medlem 51742
Guest
Menar du allvar? Är du på riktigt insatt i AI-frågan?Tycker det är lite orättvisa jämförelsepunkter.
Mer jämförbara är om man ska reglera penna och papper. Brev. Yttrandefrihet.
Menar du allvar? Är du på riktigt insatt i AI-frågan?Tycker det är lite orättvisa jämförelsepunkter.
Mer jämförbara är om man ska reglera penna och papper. Brev. Yttrandefrihet.
Ja. Riktigt insatt? Nej, men väldigt intresserad.Menar du allvar? Är du på riktigt insatt i AI-frågan?
Ok, var bara nyfiken på vad du grundar dina slutsatser på då jämförelsen med penna och papper förvånade mig något. Själv ser jag det väl mer som att riskerna befinner sig på hela skalan mellan penna och papper och de andra jag tog upp i tidigare inlägg och framför allt att riskerna är väldigt svåra att värdera och förutse - därav behovet av att på allvar ha en samhällsdiskussion om ifall det är vettigt att bara låta utvecklingen pågå helt ohejdat. Givetvis skiljer sig förstås riskerna även i såväl art som grad och tidshorisont beroende på vilka aspekter av AI som man diskuterar.Ja. Riktigt insatt? Nej, men väldigt intresserad.
Vi kan reglera hur mycket vi vill. Enda resultaten är att utvecklingen saktas ner något och att någon annan än vi tar täten. Vill vi det?Ok, var bara nyfiken på vad du grundar dina slutsatser på då jämförelsen med penna och papper förvånade mig något. Själv ser jag det väl mer som att riskerna befinner sig på hela skalan mellan penna och papper och de andra jag tog upp i tidigare inlägg och framför allt att riskerna är väldigt svåra att värdera och förutse - därav behovet av att på allvar ha en samhällsdiskussion om ifall det är vettigt att bara låta utvecklingen pågå helt ohejdat. Givetvis skiljer sig förstås riskerna även i såväl art som grad och tidshorisont beroende på vilka aspekter av AI som man diskuterar.
Ingen vinner ju på om det blir en kapprustning (jfr "prisoners dilemma"). Det finns ju väldigt många av de främsta forskarna och experterna på AI-risker som är rejält bekymrade och menar att vi på allvar måste börja forma utvecklingen på ett vettigt sätt. Det handlar ju inte om att stoppa det helt, utan snarare dämpa det värsta racet och skapa styrande principer så att vi kan köpa oss lite tid till att på allvar få igång arbetet med att hantera de största riskerna - så att vi kan få en utveckling där vi fullt ut kan skapa nytta för mänskligheten med tekniken.Vi kan reglera hur mycket vi vill. Enda resultaten är att utvecklingen saktas ner något och att någon annan än vi tar täten. Vill vi det?
Det är klart det finns risker men kineserna och ryssarna slutar inte för att vi gör det. Bättre att ta täten sätta agendan. Man kommer inte lyckas reglera AI utan att kontrollera all IT. Då behövs AI för kontrollen. Nej, staten ska ge fan i detta.Ingen vinner ju på om det blir en kapprustning (jfr "prisoners dilemma"). Det finns ju väldigt många av de främsta forskarna och experterna på AI-risker som är rejält bekymrade och menar att vi på allvar måste börja forma utvecklingen på ett vettigt sätt. Det handlar ju inte om att stoppa det helt, utan snarare dämpa det värsta racet och skapa styrande principer så att vi kan köpa oss lite tid till att på allvar få igång arbetet med att hantera de största riskerna - så att vi kan få en utveckling där vi fullt ut kan skapa nytta för mänskligheten med tekniken.
När jag läser och lyssnar till de människor som jag bedömer som bland de smartaste och kunnigaste på jorden inom t ex psykologi, neurovetenskap, AI och dess påverkan på samhället osv. och som jag följt i många år och hur hör de betonar allvaret i detta mer än jag hade förväntat mig tycker jag det finns anledning att haja till.
Just nu handlar det ju inte främst om frågan ifall AI på sikt tar kål på mänskligheten utan om det som ligger närmare och även här och nu, som tvåtaktarn är inne på. Vad händer t ex med samhället och demokratin när det går att i stor skala manipulera människor, det inte längre går att lite på information och tilliten mellan människor försvinner? Vad händer med människors lärande och utveckling när vi får allt serverat utan att behöva anstränga oss och successivt bygga egna förmågor? Vad händer när många jobb på mycket kort tid blir överflödiga, även de som ger människor glädje och mening? När tunga fysiska och monotona jobb kunde ersättas av maskiner kunde vi ersätta dem med jobb där vi använder våra hjärnor, men vad har vi för jobb att gå till när våra hjärnor blir överflödiga?
Max Tegmark tycker jag är en mycket klok person att lyssna på i sammanhanget:
Har du utbildning i AI?Ja. Riktigt insatt? Nej, men väldigt intresserad.
Så vi skall bara fortsätta låta det löpa på och hoppas på det bästa, ungefär som med kärnvapenkapprustningen men på steroider och med exponentiell utveckling?Det är klart det finns risker men kineserna och ryssarna slutar inte för att vi gör det. Bättre att ta täten sätta agendan. Man kommer inte lyckas reglera AI utan att kontrollera all IT. Då behövs AI för kontrollen. Nej, staten ska ge fan i detta.
Ja, jag tycker det ska löpa på.Så vi skall bara fortsätta låta det löpa på och hoppas på det bästa, ungefär som med kärnvapenkapprustningen men på steroider och med exponentiell utveckling?
Max Tegmarks argument är iaf att om det är någon gång vi har chansen att ta kontroll över utvecklingen så är det just nu, när fria och demokratiska länder trots allt har ett försprång jämfört med Kina i den främsta AI-utvecklingen. Senare kan den chansen vara förbi för alltid. Han menar också att vi inte skall utesluta att det även går att Kina kan underställa sig regleringar. Det gjorde de ju t ex till slut när det gäller mänsklig kloning. Även kärnvapenkapprustningen fick ju till slut en vändning i bättre riktning efter att det var riktigt nära att allt gick åt skogen när det var som värst under kalla kriget, även om den frågan förstås i allra högsta grad är aktuell fortfarande och en av de största och viktigaste riskerna för mänskligheten att hantera.
Men tekniker som potentiellt kan få förödande konsekvenser om de hanteras fel behöver regleras. Ingen ifrågasätter att man behöver körkort för att köra bil, eller att inte vem som helst får ratta ett trafikflygplan. Likaledes skulle ingen acceptera att vem som helst skulle kunna få tillgång till teknik och kunskap för att utveckla kärnvapen eller biologiska vapen. Sånt där löser sig liksom inte bara av sig själv om alla får göra som de vill, särskilt inte när det finns incitament som leder till scenarion där man måste satsa för att vinna och den spelare som agerar ansvarsfullt hamnar efter - ett race to the bottom.
Ok, ja där kan jag nog bara konstatera att vi har fundamentalt olika uppfattning.Ja, jag tycker det ska löpa på.
Gällande dina paralleller till kärnvapen så har ryssen mest och antagligen mer än vad vi tror. Sannolikt är det samma som kommer hända med AI.
Reglering kommer göra de mörka krafterna starkare medan de ljusa hålls tillbaka.
Ja, jag tror vi landar i det helt enkelt. Inget fel med det.Ok, ja där kan jag nog bara konstatera att vi har fundamentalt olika uppfattning.
Hur menar du att det annars skulle regleras när det är flera länder inblandade, om inte just frivilligt, genom att man gör överenskommelser och sedan sätter upp mekanismer så att de efterlevs?Får jag ha en kniv så får jag väl ha kärnvapen. Varken kniven eller kärnvapnet skadar någon när de ligger i byrålådan-
Är väl användandet som är farligt och i fallet kärnvapen så är oskyldiga offer ofrånkomliga och då ska jag naturligtvis straffas för det.
I övrigt så regleras det, om det regleras, helt frivilligt. Vi kan komma överens om att ingen ska ha kärnvapen tex.
Njae vetefan om det är det jag menar.Hur menar du att det annars skulle regleras när det är flera länder inblandade, om inte just frivilligt, genom att man gör överenskommelser och sedan sätter upp mekanismer så att de efterlevs?
Njae inte riktigt så.Jag avundas din tilltro till människan godhet och rationella handlande.
Tristan Harris and Aza Raskin discuss how existing A.I. capabilities already pose catastrophic risks to a functional society, how A.I. companies are caught in a race to deploy as quickly as possible without adequate safety measures, and what it would mean to upgrade our institutions to a post-A.I. world. This presentation is from a private gathering in San Francisco on March 9th with leading technologists and decision-makers with the ability to influence the future of large-language model A.I.s. This presentation was given before the launch of GPT-4.
Tycker jag känner igen honom från någon JRE som jag har för mig jag tyckte var bra.Den här videon är också relevant i sammanhanget:
StämmerTycker jag känner igen honom från någon JRE som jag har för mig jag tyckte var bra.
Det handlar inte om att stoppa tillbaka anden i flaskan. Det handlar om att skapa förutsättningar så det går att få större fokus på en ansvarsfull utveckling.Det är omöjligt att stoppa tillbaka anden i flaskan. ML-anden har väl och grundligt flytt flaskan för många år sedan, och kommer aldrig kunna stoppas tillbaka. Regleringar kommer inte stoppa utvecklingen heller, bara se till att de mest skrupelfria är de som tar det vidare.
NN kommer inte bli mycket mer än vad vi ser nu, och kommer aldrig bli AGI, och kommer aldrig bli en feedbackloop, det kommer vara någon annan teknik som för tillfället inte hörs något av eftersom att alla är så upptagna med GPT och andra NN.
Honda ICE Concept med eldriven kompressor
2025 Honda ICE Concept bike... |
|
BMW Concept F 450 GS
BMW Motorrad har visat upp ... |
|
EICMA 2024: Yamaha
Yamaha gasar på friskt infö... |
|
Honda NT1100 med semi-aktiv fjädring
Honda har uppdaterat NT1100... |
|
Yamaha Tracer 9 uppdateras
Sporttouring-modellerna TRA... |
|
EICMA 2024: Ducati
Som väntat släppte de itali... |
|
Royal Enfield lanserar nytt varumärke för eldrivna motorcyklar
Royal Enfield har tagit ste... |
|
Honda ICE Concept
2025 Honda ICE Concept bike... |
|
EICMA 2024
Nu lämnar vi Milano-mässan ... |
|
EICMA 2024: KTM
Vi får dra oss tillbaka til... |