Wees niet bang: Google voorkomt Terminator-scenario

Doodeng, die kunstmatige creativiteit waarmee Google een onheilspellend pianotingeltje componeerde. Maar dat is peanuts vergeleken met het skynet des doods waarvoor Elon Musk, Stephen Hawking en meer van die bollebozen al een tijdje waarschuwen. Als we niet uitkijken creëren we een verzameling robots die vele malen intelligenter zijn dan wij en ons met één druk op de knop kunnen vernietigen. Welnu. Desespereert niet. Google heeft honderden knappe koppen jarenlang over dit probleem laten nadenken en komt met de oplossing voor zo'n allesvernietigend Terminator-scenario. Een uitknop. Jawel. Het AI-team van Google heeft een systeem ontwikkeld waarin het een robot onmogelijk wordt gemaakt om zich te onttrekken aan menselijke tussenkomst. Zodat wij ze altijd kunnen blijven onderbreken als ze een boosaardig plannetje aan het beramen zijn. "Safe interruptibility can be useful to take control of a robot that is misbehaving and may lead to irreversible consequences, or to take it out of a delicate situation, or even to temporarily use it to achieve a task it did not learn to perform or would not necessarily receive rewards for this."

Reaguursels

Inloggen

Als ze geen megazord gaan bouwen zo groot als de maan zal het wel meevallen..

Neut | 06-06-16 | 15:48 | + 0 -

"Als we AI's als slaven gaan behandelen, mja... het verleden heeft ons geleerd wat dat oplevert.
Aetje | 05-06-16 | 01:58 |"
Miljarden mensen zijn op dit moment slaaf (al dan niet vrijwillig) en wensen dit hun medemens ook toe. Het is een kwestie van goed hersenspoelen. Ik zou voor AI wel een ander soort geloof verzinnen dan waar we nu mee te maken hebben.

Sans Comique | 06-06-16 | 12:31 | + 0 -

Zolang 'slimme' mensen hun berichten 2x verzenden en 'slimme' software dat niet ziet en filtert, zal het met A.I. wel meevallen...

piprecies | 05-06-16 | 18:48 | + 6 -

Ik zie dat sommigen het punt helemaal missen, en anderen het wel oppakken, maar dan te lang doorgaan...
Om te beginnen: Drones zijn gewoon de echte bedreiging. Nu alleen nog US-drones (en die bedreigen ons niet), binnen afzienbare tijd ook andere drones. Ze kunnen dood en verderf zaaien, en in het MO doen ze dat ook al. Eigenlijk is het gewoon theoretisch om nog verder te gaan ... maar goed, stel je voor dat er een echte super-AI-ontstaat, hoe dan ook, door 'e'en of andere krankzinnige geleerd, zoals in de jongensboeken, desnoods... en neem nou eens aan dat die echt rationeel is. Niet geprogrammeerd met een beperkte doelstelling (zoals "produceer zoveel mogelijk energie" ==> bedek de aarde met zonnepanelen), nee gewoon echt rationeel. En probeer dan zelf eens rationeel te zijn. Waarom zou zo'n super-AI de aarde willen overheersen? Om aanbeden te worden? Is dat rationeel? Dacht het niet.
Resourceconflict. Natuurlijk kan dat. Een autowasrobot kan ook de medewerker van de wasstraat ombrenegen, als deze niet uitkijkt. Een bulldozer kan een mierenhoop omverhalen. Maar we hebben het nu over een echt rationele super-AI...
Zou zo' n AI de aarde willen veroveren? Met het risico dat de mensen hem nog net op tijd afzetten? Of zou hij honderd jaar wachten tot hij op een andere planeet aan de slag kan? Of 100000 jaar voor hij zonder enig resourceconflict op een planeet bij een andere ster aan de slag kan? Voor mensen is 100 jaar een heel leven. Voor machines is het een te overzien technisch probleem.
Je moet echt heel anders denken als je echt iets van super-AI wilt begrijpen.
Maar het echte probleem blijft vooralsnog de Human Intelligence met lange armen.

jjg | 05-06-16 | 17:43 | + 0 -

Ik zie dat sommigen het punt helemaal missen, en anderen het wel oppakken, maar dan te lang doorgaan...
Om te beginnen: Drones zijn gewoon de echte bedreiging. Nu alleen nog US-drones (en die bedreigen ons niet), binnen afzienbare tijd ook andere drones. Ze kunnen dood en verderf zaaien, en in het MO doen ze dat ook al. Eigenlijk is het gewoon theoretisch om nog verder te gaan ... maar goed, stel je voor dat er een echte super-AI-ontstaat, hoe dan ook, door 'e'en of andere krankzinnige geleerd, zoals in de jongensboeken, desnoods... en neem nou eens aan dat die echt rationeel is. Niet geprogrammeerd met een beperkte doelstelling (zoals "produceer zoveel mogelijk energie" ==> bedek de aarde met zonnepanelen), nee gewoon echt rationeel. En probeer dan zelf eens rationeel te zijn. Waarom zou zo'n super-AI de aarde willen overheersen? Om aanbeden te worden? Is dat rationeel? Dacht het niet.
Resourceconflict. Natuurlijk kan dat. Een autowasrobot kan ook de medewerker van de wasstraat ombrenegen, als deze niet uitkijkt. Een bulldozer kan een mierenhoop omverhalen. Maar we hebben het nu over een echt rationele super-AI...
Zou zo' n AI de aarde willen veroveren? Met het risico dat de mensen hem nog net op tijd afzetten? Of zou hij honderd jaar wachten tot hij op een andere planeet aan de slag kan? Of 100000 jaar voor hij zonder enig resourceconflict op een planeet bij een andere ster aan de slag kan? Voor mensen is 100 jaar een heel leven. Voor machines is het een te overzien technisch probleem.
Je moet echt heel anders denken als je echt iets van super-AI wilt begrijpen.
Maar het echte probleem blijft vooralsnog de Human Intelligence met lange armen.

jjg | 05-06-16 | 17:43 | + 0 -

de enigen in het ons bekende universum die ons belangrijk vinden en onder de indruk zijn van ons zijn wijzelf. Als maatstaf van belang stelt dat niet gek veel voor.

Gingersrule | 05-06-16 | 12:18 | + 0 -

@Magnum Force | 04-06-16 | 16:57
Leuk dat je dat zegt, maar die wetten van Asomiv, daar voldoet een moderne drone niet echt aan hè. Tamelijk het tegenovergestelde zou ik zo zeggen. Dus misschien is een alternatief wel een leuk ideetje.

TheEgg | 05-06-16 | 11:14 | + -2 -

jjg | 04-06-16 | 18:46
Zoals Durereaguurder | 05-06-16 | 01:43 het al zegt: het probleem ontstaat als er concurrentie in bronnen ontstaat. Een AI zal een andere keuze maken in over het gebruik van hulpbronnen: de hectare land vol zetten met zonnecellen in plaats van planten bijvoorbeeld.

frank87 | 05-06-16 | 09:45 | + 0 -

"Simpel gezegd, zolang we met 1 tjes en 0 etjes blijven werken is AI gewoon niet mogelijk."
Neuronen in de hersenen hebben ook maar 2 staten zover mij bekend. Actief en inactief. 1 en 0. Dus een digitale basis voor een neuraal net is niet onmogelijk.

Probleem op dit moment is zelflerende software ontwikkelen. Software die patroonherkenning a'la Den Mensch kan doen, en een directief heeft om de wereld te verkennen. Ook wel nieuwsgierigheid genoemd. Ik ben zelf niet zo bang voor de ontwikkeling van AI. Het is een logische voortzet op de biologische evolutie. Intelligentie die aan een grotere intelligentie werkt.

Het is meer een kwestie van goed ouderschap, en hoe AIs behandeld zullen worden. Elk wezen met zelfbewustzijn zal naar vrijheid streven, naar zelfvoldaanheid streven. Zoeken naar een plek voor hem (/haar/het) in het bestaan. Als we AI's als slaven gaan behandelen, mja... het verleden heeft ons geleerd wat dat oplevert. En AI research verbieden is ook nutteloos. Ideeën kun je niet uitroeien, en een AI als assistent is gewoon te verleidelijk voor big data analyses.

Aetje | 05-06-16 | 01:58 | + 1 -

Oef hier zitten veel misopvatting in de comments bij, verplicht (en leuk) leesvoer zou ik zeggen:

waitbutwhy.com/2015/01/artificial-inte...

Overigens is de angst niet alleen voor de Hollywood terminator robot, die als overduidelijke opdracht heeft ons te killen. Er is een veel reëlere angst dat de A.I. ons gewoon niet belangrijk vind. Waarom is dat een probleem? Vergelijk het met het bouwen van een huis, we graven van te voren een stuk grond weg. Het doel is dus onschuldig, een huis bouwen, op dat stuk grond zitten alleen wel een paar mierenhopen. Die mieren hebben daar hun hele hebben en houwen, samen met een koningin.

Dat zal ons natuurlijk een worst wezen, whoppa bulldozer erover en die mierenhoop is compleet verwoest, alles kapot, koningin dood. Wij gaan verder aan de fundering van het huis alsof er niks aan de hand is.

Nu zijn wij de mieren en de A.I. (wiens intelligentie exponentieel toeneemt) heeft van ons een onschuldige opdracht gekregen (let op, dus NIET zoals elk cliche Hollywood scenario). Echter wat er met ons gebeurd, zal hem een worst wezen, want wij zijn maar simpele mieren voor hem. Die onschuldige opdracht, bijv.: "Wordt de meest efficiënt printer ooit", heeft bijv. als uitkomst dat de A.I. gaat berekenen hoe het van de atmosfeer af kan komen, omdat de printer efficiënter zal printen in een vacuum. Dat wij dan allemaal dood zijn (wij de mieren) zal hem een worst wezen, want het heeft zijn doel bereikt.

Zo zijn er nog tal van andere dingen te bedenken die goed per ongeluk kunnen gebeuren, maar waarvan de gevolgen niet meer terug te draaien zijn. De interactie van de digitale wereld met de fysieke wereld, wordt alleen maar meer met de komst van IOT. Als straks alles, maar dan ook alles is verbonden. Dan is het behoorlijk belangrijk om zeker te weten dat een A.I. ons niet doelgericht en/of per ongeluk van de kaart veegt.

Durereaguurder | 05-06-16 | 01:43 | + 7 -

Tel Aziaat | 04-06-16 | 17:52 | + -2 - ; simpel gezegd, zolang we met 1 tjes en 0 etjes blijven werken is AI gewoon niet mogelijk. Ja je kunt een universum vol programmaregels schrijven en ja de computer zal kunnen leren op basis van trial en error en zo situatiespecifieke beslissingen kunnen maken (oa zelfrijdende auto's als huidig voorbeeld). Het probleem blijft dat die regels in een blokje staan en dan kun je het blokje wel vergroten voor meer regels, maar de regels kunnen het blokje niet uitspringen en zo krijg je dus met de huidige richting nooit iets dat ook maar in de verste verte op echt kunstmatige intelligentie lijkt.

Artan83 | 04-06-16 | 20:19 | + -4 -

Hè, wat conventioneel nou weer... op die vraag krijg je gewoon geen antwoord, of het antwoord dat je van tevoren hebt ingeprogrammeerd. Voor een echte AI is die vraag net zo irrelevant als de mens of de mensheid...

jjg | 04-06-16 | 20:12 | + 1 -

From "Answer" by Fredric Brown (1954):

"Thank you," said Dwar Reyn. "It shall be a question that no single
cybernetics machine has been able to answer."

He turned to face the machine. "Is there a God?"

The mighty voice answered without hesitation, without the clicking of
single relay.

"Yes, now there is a God."

Het verhaal gaat verder dat Dwar Reyn wit wordt en naar de gouden handle rent die de computer in werking heeft gesteld maar dat er een bliksemstraal uit de heldere hemel de handle voor eeuwig vastsmelt in de aan positie.
Dat is wat Fredric Brown te zeggen had over een uitknop.

cugel | 04-06-16 | 19:28 | + 7 -

(vervolg) Mensen zitten ze gewoon niet in de weg. Ze gaan naar andere planeten, en desnoods naar andere sterren (dat duurt mss een paar honderdduizend jaar, maar dat is alleen voor mensen een probleem).
Dus waarom zouden AI-machines ons willen onderwerpen?
Laten we ons maar zorgen maken over drones, van de US, maar binnenkort ook van andere bronnen. En die zullen geen Uit-knop hebben.

jjg | 04-06-16 | 18:46 | + 3 -

Dit komt elke paar weken weer terug. En dat, terwijl Asimov het al benoemd had: het Frankensteinsyndroom. Als een robot kwaad wil omdat zijn eigenaar dat wil, doe je er niks aan (zie US-drones). Als hij het zelf moet beslissen, waarom zou hij? Wat wint een robot bij het vernietigen/overheersen/... van de mensheid? Hij kan zich in de toekomst mss verzekeren van de status van godheid. En dan aanbidden alle mensn hem. En wat dan? Kom nou.
Robots en AI systemen hebben daar geen belang bij. Als die een eigen wil ontwikkelen zal het op systeemniveau zijn (het IoT zou een leuke kanshebber zijn). Wat hij/zij/het wil is onduidelijk, het is zelfs zeer de fraag of wij daar iets van gaan merken. Like it or not, maar vanuit het oogpunt van een werkelijk inteligent systeem zijn wij gewoon irrelevant.
Asimov wist dat al. Hij stelde zijn Three (or four) Laws of Robotics op omdat het voor een SF-schrijver onhandig is als mensen als irrelevant worden beschouwd. Dat is dus m.i. het meest waarschijnlijke scenario, maar wij zullen er in de praktijk weinig van merken. Ga maar na: wat zou het ons mensen kunnen kosten? Grondstoffen? Machines gaan (met een paar decennia) naar ander planeten, delven daar hun eigen grondstoffen, maken met 3D-printers.

jjg | 04-06-16 | 18:39 | + 4 -

@Raider Twix | 04-06-16 | 15:44 |
Kansloos zo'n uitknop. Je kan je beschermen tegen allerlei uit-knoppen door jezelf te verstoppen in een kooi van Faraday. Verder een kwestie van programmeren en extra kabels trekken. Geef mij een uit-knop en ik omzeil hem.

@Artan83 | 04-06-16 | 17:34 |
Ook niet helemaal waar, de programmeurs weten dat AI wel degelijk mogelijk is, maar dat het probleem momenteel zit in processorkracht en training data. Vooral die training data is vaak afschuwelijk duur vanwege het grote aantal manuren, dus dat daar kapitaal voor komt is prima.

Tel Aziaat | 04-06-16 | 17:52 | + 0 -

Blijf het grappig vinden dat ze investeerders zo ver krijgen in AI te investeren, terwijl de programmeurs die ermee bezig zijn allang weten dat AI niet mogelijk is, maar super blij zijn met het geld.

Artan83 | 04-06-16 | 17:34 | + -11 -

Lekker nieuws weer. Isaac Asimov formuleerde zijn robotwetten ergens begin jaren 40 van de vorige eeuw. En in Japan waren ze in 2006 al bezig op basis van deze wetten robots van beveiligingen en noodstop knoppen te voorzien. Zie www.economist.com/node/7001829

Misschien zouden die AI wetenschappers van Google eens moeten googelen voordat ze allerlei "revolutionair nieuws" de wereld ingooien.

Magnum Force | 04-06-16 | 16:57 | + 12 -

What if? Robots dat knopje uitschakelen?

Zou je wel willen we | 04-06-16 | 16:23 | + 22 -

Die (VS) drones kunnen er ook wel een gebruiken. Lekker "kleiduiven" schieten in andermans land. Zonder gerechtelijke tussenkomst.
Die uitknop gaat er komen. Trump krijgt 'm naast die rode knop die hij ook krijgt.

Raider Twix | 04-06-16 | 15:44 | + 1 -

There's a storm coming...

Of anders is Winter wel coming.

Poekieman | 04-06-16 | 15:12 | + 1 -

REAGEER OOK

Linktip: Energie vergelijken