Min fredag var så gott som fullbokad med högintressanta föreläsningar och paneldebatter. En stor fördel med WorldCon är att det drar till sig människor som jobbar med forskning inom relevanta områden som neurobiologi och kvantfysik, ofta på företag i teknisk framkant, och dessutom är science fiction-författare vid sidan om det. Så var fallet på programpunkten Artificial Intelligence in Real Life and SF. Skickliga moderatorn S.B. Dibya har arbetat med mönsterigenkänning, Anthony Eichenlaub jobbar med Watson på IBM (visserligen med hur man skall tjäna pengar på det) och Greg Hullender arbetar på Amazon och har tidigare sysslat med handskriftsigenkänning för Microsofts Surface tablet.
Behöver vi reglera AI? Elon Musk svarar att vi behöver lagstiftning redan innan vi har ett behov av det, annars är det för sent. Mark Zuckerberg säger att vi inte behöver måla upp doomsday scenarios. Dock har de båda affärsintresse av att säga det de säger; Musks självkörande bilar behöver ha ansvarsfrågan utbenad, Facebook vill få utvecklas utan hämningar. I panelen svarade Hullender att den verkliga risken är att vi förväntar oss för mycket av AI. Jämför med autokorrekt, hur ofta det blir fel, och tänk att liknande misstag görs av ett anti-atombombssystem. Eichenlaub sade att vi kan citera honom när han säger att AI som försöker döda en och killer robots inte kommer att hända!
Behöver vi skydda AI från människans gärningar, ur en etisk synpunkt? Hollander såg ingte behov av det; vad vi har nu är inte på väg att utvecklas till medvetna AI:n. Eichenlaub sade att vi kan komma till en nivå av robothusdjur på intelligensnivån av en hamster, som kommer att vara söt och verka levande. Intellektuellt sett ser han inget hinder att "döda" den, men emotionellt sett kommer han att känna motstånd mot att göra det. Hollander inflikade att den människa som gillar att döda ett robothusdjur ändå skulle ha drag av psykopat.
Kommer vi att gå emot medvetna AI:n och när? Eichenlaub svarar nej. Vi skulle behöva ett breakthrough inom forskningen men vi vet inte ens vad det borde vara. Om AI är en stor boll så jobbar vi på ytan av den, men har inte satt ett enda skrapmärke i den verkliga utmaningen.
Behöver vi bena ut den neurobiologiska modellen av hjärnan och medvetandet och kopiera den? Hollander anser att det är ett misstag att modellera AI efter hjärnan. Vi lyckades inte flyga genom att kopiera fåglars vingar, så vi kommer inte att kunna gå den vägen för att skapa medvetande heller. (Skämtsamt förslag på Turingtest: ett flygplan som lurar fåglar att tro att den är en fågel!)
Eichenlaub har sett hur mycket jobb under många år som går till att få en mycket enklare mjukvaruprodukt att fungera, så han tror inte att självmedvetande kommer att uppstå spontant ur ett komplext system. Hollander liknar den tanken vid att blanda alla ingredienser i en kemilåda och tro att det skall skapa liv. På en publikfråga svarade Hollander att en chef på Microsoft varit mycket intresserad av spontant medvetandeblivande och ordnat några konferenser vilka Hollander dock fick beordra sina anställda att gå på då de försökte slippa, då det sågs som likvärdigt till, tja, astrologi.
Råd till en författare som vill skriva trovärdiga AI? Hollander: placera historien tusen år in i framtiden och försök inte ens förklara hur det fungerar, för varje försök kommer att låta dåligt. Böcker och historier som lyckas få till en trovärdig bild är de som placerar AI som assistenter, inte huvudroller. Eichenlaub tycker dock om Sungrazer av Jake Posey. Överlag var jag själv mycket nöjd med att den kunniga panelen hade lika "stränga" definitioner och uppfattning om AI som jag, och jag hoppas att SF-författare fortsätter att skriva om AI men inte slarvar med att låta vilja och känslor bara uppstå spontant, eller att avläsa mänsklighet i något som ser ut och/eller beter sig som en människa.
S.B. Dibya frågade panelen samma sak som jag också ofta undrat i samband med AI-berättelser, speciellt film och TV-serier: Varför skulle någon vilja programmera AI:n till att ha känslor? Visst bygger vi AI:n med specifik motivation, till exempel de bottar som Facebook släppte lös att köpa och sälja till varandra och som utvecklade ett eget språk. Kan deras utrop räknas som känslor i ett AI-system? (öppen fråga) Hollander berättade att Microsoft övervägt att bygga in ett mått av känslor i en muntligt styrd hjälpfunktion: de gissade att användaren skulle bli frustrerad och skälla på funktionen, men om man gav den en ledsen röst skulle man genera sig för att skrika för argt åt den. Så skulle ju någon kunna bygga in känsla med ond baktanke; ett virus som ber dig att inte radera det! Ur publiken kom en kvinna med informationen att Volvo kan komma att låta sina självkörande bilar le (visa happyface) när de stannar för en fotgängare, för att få hen att känna att det är säkert att gå framför bilen. Ansiktsuttryck är ju en genväg för att överföra känslor och dithörande information.
Dibya berättade att vi just nu låter AI syssla med mycket specifika uppgifter, men att skapa en AI med generaliserad intelligens, som kan öppna en dörr, gå in, sätta sig på en stol och helt enkelt klara sig i världen genom att vara adaptiv och uppfinningsrik, det är mycket svårare.
Write Long and Cut, or Write Short and Add var titeln på en paneldebatt om att skriva och redigera det man författat. De medverkande författarna och lektörerna Jeremy Szal, Chris Beckett, Natania Barron, Bo Balder och Leo Vladimirsky kom snabbt att fokusera nästan uteslutande på redigering. Det är en process som många ogillar, men på frågan om vad de gillar med redigering hade personerna flera svar. Szal sade att det är ett sätt att skrapa bort lera och se ädelstenar komma fram, vilket kan ge insikten "det här är vad jag vill att resten av historien skall vara". Beckett gillade också redigering då han kan forma berättelsen och hitta saker att utvidga, och dessutom, till skillnad från skrivkramp går det inte att ha redigeringskramp, för där finns alltid den där massan av ord att jobba med! Barron gillade att hon kan få sig själv att se smartare ut i rediteringen, få in ordlekar och återkommande glimtar av till exempel färgen blå, som om hon hade planerat det hela tiden. Balder tar sig tid att fundera på "Behöver läsaren veta det här redan nu?"
Beta-läsare är nyttiga på olika sätt för de olika författarna. Szal gillar i regel första tredjedelen och sista fjärdedelen av böcker men tycker att mitten är tråkig. Läsare som älskar mittendelar specifikt kan då ge värdefull input på just de bitarna. När någon inte tycker om vad han har skrivit på vissa ställen blir det en utmaning för honom att verkligen visa varför han tycker om det och varför han skrev det, och ett tillfälle att förtydliga och förbättra de avsnitten. Vladimirsky påpekade att feedback är bra i form av "det här fungerar inte för mig, jag tror du försöker göra det här men..." men inte i form av direkta rediteringar: "skriv så här och så här: XXX". Beckett sade att flera olika läsare kan ge olika åsikter, så i slutändan ligger ansvaret ändå på honom själv.
Paneldeltagarna kunde bjuda på roliga anekdoter från rediteringsprocessen! En gång upptäckte Vladimirsky att hälften av alla hans karaktärer bar asymmetriska jumpsuits, något han själv gillade mycket just då men insåg att det skulle vara omodernt om tio år. Szal insåg att alla hans kvinnliga karaktärer hade bubbelgumsblått hår. Beckett såg att flera av hans karaktärer hade namn som börjar med samma bokstav, vilket gör det svårt att minnas vem som är vem. Sedan kan han hamna i en nedåtgående spiral där han ifrågasätter allt han skrivit, och då kan en läsare ur vänkretsen hejda honom och säga "det här är bra, det duger!". En läsare sade till Barron att alla hennes karaktärer gör ett "tak" av fingrarna, som hon själv brukar göra, och en annan sade till Szal att alla i hans bok spottar när de blir arga, vare sig de är inomhus eller i en rymddräkt i vakuum!
Hur vet man att man behöver göra en stor reditering och ta bort mycket? Szal plockade bort en person ur en berättelse som inte hade någon annan uppgift än att vara en annans love interest - det var inte rättvist mot henne att hon inte skulle ha någon annan motivation. Med färre roller blev inte heller handlingen så utspridd. Chris Beckett sade att hans karaktärer är som dockor från början men brukar få liv efter ett tag. Om någon fortfarande är träig efter ett tag förstår han att han bör ta bort hen. Han gav också rådet att om en berättelse inte fungerar kan det hjälpa att till exempel skifta berättarrösten från första till tredje person.
I panelen för Making a Better Human satt Sam Scheiner, ansvarig för att dela ut stipendier om evolutionsforskning i US National Science Fund, Julie Novakova som disputerat i evolutionärt beteende, Shariann Lewitt som lär ut evolutionsbiologi och epigenetik på MIT och Keffy R.M. Kehrli, som har doktorerat inom genetik och evolution. De senare två är även SF-författare.
Bland dåliga exempel på synen på evolution räknade Kehrli filmen Idiocracy, där bara dumma människor får barn och så blir hela mänskligheten dummare. Det vi skrattar åt är en dold eugenik-tanke. Vad gäller att försöka göra sig av med dåliga gener, till exempel med hjälp av CRISPR cas9, så är problemen 1. att vi inte vet om en problematisk gen också har sekundära egenskaper som gör den nödvändig för andra, viktiga gener och 2. hur bestämmer vi vad som är dåligt? Har vi rätt att bestämma att människor med Down's syndrom har liv mindre värda än våra och inte skall födas? Eller sicklecell-anemi, som ger en hemsk sjukdom om man ärver den från båda föräldrarna men viss immunitet från malaria om man ärver den från bara en förälder. Kehrli påpekade att efter decenniers studier av jästbakteriers gener, små och ganska lättdefinierade, händer det fortfarande att forskare får resultat som är totalt överraskande, och att då skala upp till större varelser skulle ge ännu mer komplexitet.
Den etiska frågan om en förälder har rätt att genmodifiera sitt (ofödda) barn är inte ny, enligt Kehrli, då föräldrar alltid fattat beslut som påverkat deras barns liv; var de skall bo, vilka resurser de har och liknande. De övriga invände att det är skillnad på att flytta till Seattle och att ge sina barn gälar för att de skall flytta till en vattenplanet! Lewitt påpekade att trots att vi till stor del har tekniken för genmodifiering redan idag, finns det tre lager av genförändringar som behöver/kan göras, och det tredje, epigenetik, känner vi inte alls till tillräckligt; vi har inte tillräckligt med experimentella data. Men hon tror att barn som föds idag kommer att kunna välja genetiska förändringar åt sina barn, och generationen efter kommer kanske att kunna beställa förändringar på sig själva.
På publikfrågan vilka förändringar som vore förbättringar kom motfrågan vad som räknas som bra? Det är alltid beroende av omgivningen och det kan finnas olika egenskaper som är gynnsamt att förstärka. Novakova föreslog fotosyntes, vilket Scheiner svarade inte skulle kunna gå - motsatt svar till vad vi kom fram till på debatten på Kontrast i Uppsala tidigare i år! Vem har rätt?!
Lästips från panelen: Eileen Gunns bok Computer Friendly
The Future Is Approaching Quickly: SF as an Alternative to Future-Oriented Think Tanks var det intressanta temat för paneldebatten mellan Klaus AE Mogensen, medarbetare i en non-profit futurist-thinktank, Kristina Knaving som forskar i interaktionsdesign, Nick Price från en futurist-thinktank och Quifan Chen som arbetar med virtual reality på en startup, lett av Stephanie Saulter. Knaving förde fram att i en thinktank vill du hitta rätt svar att förmedla, i SF får du många olika svar på en fråga vilket är mer fruktbart, och de är paketerade på ett sätt vi kan relatera till; som historier, med personer som reagerar på händelser i den tänkta framtiden. Price tillförde att en SF-författare är (oftast) en enda person, medan flera samarbetar med vad en thinktank tar fram. Mogensen sade att SF presenterar en möjlig framtid medan thinktanks vill presentera en trovärdig framtid. De brukar ta fram 3-4 möjliga scenarios för sin kund och presentera dem, inte som lösningar utan som roadmaps.
Hur reagerar den verkliga världen på presenterade scenarios? Det sägs att Ian M. Banks böcker inspirerar Elon Musk. European Space Agency och NASA bjuder in SF-författare att dela med sig av idéer, men det är oklart hur mycket av dem som används. Saulter nämnde att kinesiska delegationer till företag som Microsoft och Google fann att många framgångsrika anställda där är SF-läsare, och har därför börjat satsa på science fiction som en genre i landet. Quifan Chen fyllde i med att till exempel kinesiska Alibaba vill anställa SF-författare.
Något nytt och sensationellt kan bli familjärt via media och då förlora sin chock-effekt, som till exempel Big Brother som blivit en dokusåpa (flera) och mjukat upp folks inställning till ständig övervakning. Hur presenteras de olika framtidsvisionerna? I science fiction ser vi ofta katastrofscenarior (och några överlevare). När Mogensen skriver för teknikmagasin listar han ett bra och ett dåligt exempel. För en kund presenteras scenariorna neutralt, så att de själva kan välja vad de ser som bra eller dåligt.
Lästips: Warren Ellis bok Normal och bloggen Economic Science Fiction
Behöver vi reglera AI? Elon Musk svarar att vi behöver lagstiftning redan innan vi har ett behov av det, annars är det för sent. Mark Zuckerberg säger att vi inte behöver måla upp doomsday scenarios. Dock har de båda affärsintresse av att säga det de säger; Musks självkörande bilar behöver ha ansvarsfrågan utbenad, Facebook vill få utvecklas utan hämningar. I panelen svarade Hullender att den verkliga risken är att vi förväntar oss för mycket av AI. Jämför med autokorrekt, hur ofta det blir fel, och tänk att liknande misstag görs av ett anti-atombombssystem. Eichenlaub sade att vi kan citera honom när han säger att AI som försöker döda en och killer robots inte kommer att hända!
Behöver vi skydda AI från människans gärningar, ur en etisk synpunkt? Hollander såg ingte behov av det; vad vi har nu är inte på väg att utvecklas till medvetna AI:n. Eichenlaub sade att vi kan komma till en nivå av robothusdjur på intelligensnivån av en hamster, som kommer att vara söt och verka levande. Intellektuellt sett ser han inget hinder att "döda" den, men emotionellt sett kommer han att känna motstånd mot att göra det. Hollander inflikade att den människa som gillar att döda ett robothusdjur ändå skulle ha drag av psykopat.
Kommer vi att gå emot medvetna AI:n och när? Eichenlaub svarar nej. Vi skulle behöva ett breakthrough inom forskningen men vi vet inte ens vad det borde vara. Om AI är en stor boll så jobbar vi på ytan av den, men har inte satt ett enda skrapmärke i den verkliga utmaningen.
Behöver vi bena ut den neurobiologiska modellen av hjärnan och medvetandet och kopiera den? Hollander anser att det är ett misstag att modellera AI efter hjärnan. Vi lyckades inte flyga genom att kopiera fåglars vingar, så vi kommer inte att kunna gå den vägen för att skapa medvetande heller. (Skämtsamt förslag på Turingtest: ett flygplan som lurar fåglar att tro att den är en fågel!)
Eichenlaub har sett hur mycket jobb under många år som går till att få en mycket enklare mjukvaruprodukt att fungera, så han tror inte att självmedvetande kommer att uppstå spontant ur ett komplext system. Hollander liknar den tanken vid att blanda alla ingredienser i en kemilåda och tro att det skall skapa liv. På en publikfråga svarade Hollander att en chef på Microsoft varit mycket intresserad av spontant medvetandeblivande och ordnat några konferenser vilka Hollander dock fick beordra sina anställda att gå på då de försökte slippa, då det sågs som likvärdigt till, tja, astrologi.
Råd till en författare som vill skriva trovärdiga AI? Hollander: placera historien tusen år in i framtiden och försök inte ens förklara hur det fungerar, för varje försök kommer att låta dåligt. Böcker och historier som lyckas få till en trovärdig bild är de som placerar AI som assistenter, inte huvudroller. Eichenlaub tycker dock om Sungrazer av Jake Posey. Överlag var jag själv mycket nöjd med att den kunniga panelen hade lika "stränga" definitioner och uppfattning om AI som jag, och jag hoppas att SF-författare fortsätter att skriva om AI men inte slarvar med att låta vilja och känslor bara uppstå spontant, eller att avläsa mänsklighet i något som ser ut och/eller beter sig som en människa.
S.B. Dibya frågade panelen samma sak som jag också ofta undrat i samband med AI-berättelser, speciellt film och TV-serier: Varför skulle någon vilja programmera AI:n till att ha känslor? Visst bygger vi AI:n med specifik motivation, till exempel de bottar som Facebook släppte lös att köpa och sälja till varandra och som utvecklade ett eget språk. Kan deras utrop räknas som känslor i ett AI-system? (öppen fråga) Hollander berättade att Microsoft övervägt att bygga in ett mått av känslor i en muntligt styrd hjälpfunktion: de gissade att användaren skulle bli frustrerad och skälla på funktionen, men om man gav den en ledsen röst skulle man genera sig för att skrika för argt åt den. Så skulle ju någon kunna bygga in känsla med ond baktanke; ett virus som ber dig att inte radera det! Ur publiken kom en kvinna med informationen att Volvo kan komma att låta sina självkörande bilar le (visa happyface) när de stannar för en fotgängare, för att få hen att känna att det är säkert att gå framför bilen. Ansiktsuttryck är ju en genväg för att överföra känslor och dithörande information.
Dibya berättade att vi just nu låter AI syssla med mycket specifika uppgifter, men att skapa en AI med generaliserad intelligens, som kan öppna en dörr, gå in, sätta sig på en stol och helt enkelt klara sig i världen genom att vara adaptiv och uppfinningsrik, det är mycket svårare.
Write Long and Cut, or Write Short and Add var titeln på en paneldebatt om att skriva och redigera det man författat. De medverkande författarna och lektörerna Jeremy Szal, Chris Beckett, Natania Barron, Bo Balder och Leo Vladimirsky kom snabbt att fokusera nästan uteslutande på redigering. Det är en process som många ogillar, men på frågan om vad de gillar med redigering hade personerna flera svar. Szal sade att det är ett sätt att skrapa bort lera och se ädelstenar komma fram, vilket kan ge insikten "det här är vad jag vill att resten av historien skall vara". Beckett gillade också redigering då han kan forma berättelsen och hitta saker att utvidga, och dessutom, till skillnad från skrivkramp går det inte att ha redigeringskramp, för där finns alltid den där massan av ord att jobba med! Barron gillade att hon kan få sig själv att se smartare ut i rediteringen, få in ordlekar och återkommande glimtar av till exempel färgen blå, som om hon hade planerat det hela tiden. Balder tar sig tid att fundera på "Behöver läsaren veta det här redan nu?"
Beta-läsare är nyttiga på olika sätt för de olika författarna. Szal gillar i regel första tredjedelen och sista fjärdedelen av böcker men tycker att mitten är tråkig. Läsare som älskar mittendelar specifikt kan då ge värdefull input på just de bitarna. När någon inte tycker om vad han har skrivit på vissa ställen blir det en utmaning för honom att verkligen visa varför han tycker om det och varför han skrev det, och ett tillfälle att förtydliga och förbättra de avsnitten. Vladimirsky påpekade att feedback är bra i form av "det här fungerar inte för mig, jag tror du försöker göra det här men..." men inte i form av direkta rediteringar: "skriv så här och så här: XXX". Beckett sade att flera olika läsare kan ge olika åsikter, så i slutändan ligger ansvaret ändå på honom själv.
Paneldeltagarna kunde bjuda på roliga anekdoter från rediteringsprocessen! En gång upptäckte Vladimirsky att hälften av alla hans karaktärer bar asymmetriska jumpsuits, något han själv gillade mycket just då men insåg att det skulle vara omodernt om tio år. Szal insåg att alla hans kvinnliga karaktärer hade bubbelgumsblått hår. Beckett såg att flera av hans karaktärer hade namn som börjar med samma bokstav, vilket gör det svårt att minnas vem som är vem. Sedan kan han hamna i en nedåtgående spiral där han ifrågasätter allt han skrivit, och då kan en läsare ur vänkretsen hejda honom och säga "det här är bra, det duger!". En läsare sade till Barron att alla hennes karaktärer gör ett "tak" av fingrarna, som hon själv brukar göra, och en annan sade till Szal att alla i hans bok spottar när de blir arga, vare sig de är inomhus eller i en rymddräkt i vakuum!
Hur vet man att man behöver göra en stor reditering och ta bort mycket? Szal plockade bort en person ur en berättelse som inte hade någon annan uppgift än att vara en annans love interest - det var inte rättvist mot henne att hon inte skulle ha någon annan motivation. Med färre roller blev inte heller handlingen så utspridd. Chris Beckett sade att hans karaktärer är som dockor från början men brukar få liv efter ett tag. Om någon fortfarande är träig efter ett tag förstår han att han bör ta bort hen. Han gav också rådet att om en berättelse inte fungerar kan det hjälpa att till exempel skifta berättarrösten från första till tredje person.
I panelen för Making a Better Human satt Sam Scheiner, ansvarig för att dela ut stipendier om evolutionsforskning i US National Science Fund, Julie Novakova som disputerat i evolutionärt beteende, Shariann Lewitt som lär ut evolutionsbiologi och epigenetik på MIT och Keffy R.M. Kehrli, som har doktorerat inom genetik och evolution. De senare två är även SF-författare.
Bland dåliga exempel på synen på evolution räknade Kehrli filmen Idiocracy, där bara dumma människor får barn och så blir hela mänskligheten dummare. Det vi skrattar åt är en dold eugenik-tanke. Vad gäller att försöka göra sig av med dåliga gener, till exempel med hjälp av CRISPR cas9, så är problemen 1. att vi inte vet om en problematisk gen också har sekundära egenskaper som gör den nödvändig för andra, viktiga gener och 2. hur bestämmer vi vad som är dåligt? Har vi rätt att bestämma att människor med Down's syndrom har liv mindre värda än våra och inte skall födas? Eller sicklecell-anemi, som ger en hemsk sjukdom om man ärver den från båda föräldrarna men viss immunitet från malaria om man ärver den från bara en förälder. Kehrli påpekade att efter decenniers studier av jästbakteriers gener, små och ganska lättdefinierade, händer det fortfarande att forskare får resultat som är totalt överraskande, och att då skala upp till större varelser skulle ge ännu mer komplexitet.
Den etiska frågan om en förälder har rätt att genmodifiera sitt (ofödda) barn är inte ny, enligt Kehrli, då föräldrar alltid fattat beslut som påverkat deras barns liv; var de skall bo, vilka resurser de har och liknande. De övriga invände att det är skillnad på att flytta till Seattle och att ge sina barn gälar för att de skall flytta till en vattenplanet! Lewitt påpekade att trots att vi till stor del har tekniken för genmodifiering redan idag, finns det tre lager av genförändringar som behöver/kan göras, och det tredje, epigenetik, känner vi inte alls till tillräckligt; vi har inte tillräckligt med experimentella data. Men hon tror att barn som föds idag kommer att kunna välja genetiska förändringar åt sina barn, och generationen efter kommer kanske att kunna beställa förändringar på sig själva.
På publikfrågan vilka förändringar som vore förbättringar kom motfrågan vad som räknas som bra? Det är alltid beroende av omgivningen och det kan finnas olika egenskaper som är gynnsamt att förstärka. Novakova föreslog fotosyntes, vilket Scheiner svarade inte skulle kunna gå - motsatt svar till vad vi kom fram till på debatten på Kontrast i Uppsala tidigare i år! Vem har rätt?!
Lästips från panelen: Eileen Gunns bok Computer Friendly
The Future Is Approaching Quickly: SF as an Alternative to Future-Oriented Think Tanks var det intressanta temat för paneldebatten mellan Klaus AE Mogensen, medarbetare i en non-profit futurist-thinktank, Kristina Knaving som forskar i interaktionsdesign, Nick Price från en futurist-thinktank och Quifan Chen som arbetar med virtual reality på en startup, lett av Stephanie Saulter. Knaving förde fram att i en thinktank vill du hitta rätt svar att förmedla, i SF får du många olika svar på en fråga vilket är mer fruktbart, och de är paketerade på ett sätt vi kan relatera till; som historier, med personer som reagerar på händelser i den tänkta framtiden. Price tillförde att en SF-författare är (oftast) en enda person, medan flera samarbetar med vad en thinktank tar fram. Mogensen sade att SF presenterar en möjlig framtid medan thinktanks vill presentera en trovärdig framtid. De brukar ta fram 3-4 möjliga scenarios för sin kund och presentera dem, inte som lösningar utan som roadmaps.
Hur reagerar den verkliga världen på presenterade scenarios? Det sägs att Ian M. Banks böcker inspirerar Elon Musk. European Space Agency och NASA bjuder in SF-författare att dela med sig av idéer, men det är oklart hur mycket av dem som används. Saulter nämnde att kinesiska delegationer till företag som Microsoft och Google fann att många framgångsrika anställda där är SF-läsare, och har därför börjat satsa på science fiction som en genre i landet. Quifan Chen fyllde i med att till exempel kinesiska Alibaba vill anställa SF-författare.
Något nytt och sensationellt kan bli familjärt via media och då förlora sin chock-effekt, som till exempel Big Brother som blivit en dokusåpa (flera) och mjukat upp folks inställning till ständig övervakning. Hur presenteras de olika framtidsvisionerna? I science fiction ser vi ofta katastrofscenarior (och några överlevare). När Mogensen skriver för teknikmagasin listar han ett bra och ett dåligt exempel. För en kund presenteras scenariorna neutralt, så att de själva kan välja vad de ser som bra eller dåligt.
Lästips: Warren Ellis bok Normal och bloggen Economic Science Fiction
Tack för en fyllig rapport! En liten kommentar bara: "editera" ska vara "redigera" på svenska!
SvaraRaderaTack, det har du rätt i. Jag kom inte på det ordet under mitt nattliga sammanfattande.
SvaraRadera