Van de technologieElektronica

Google getest kunstmatige intelligentie DeepMind in een "prisoner's dilemma"

Het lijkt waarschijnlijk dat de kunstmatige intelligentie (AI) is een voorbode van de volgende technologische revolutie. Als de AI zal worden ontwikkeld tot het punt waarop het in staat om te leren, denken en zelfs "voelen" zal zijn, en dit alles zonder enige menselijke tussenkomst, alles wat we weten over de wereld veranderde bijna 's nachts. Komt het tijdperk van echt intelligent kunstmatige intelligentie.

DeepMind

Dat is waarom het zo interessant om bij te houden van de belangrijkste mijlpalen in de ontwikkeling van ICS die plaatsvinden, waaronder de ontwikkeling van een neuraal netwerk van Google DeepMind houden. Dit neurale netwerk is in staat om de mens in de spelwereld, en een nieuwe studie van de Google te verslaan zijn, laat zien dat de makers DeepMind nog niet zeker of de AI geeft de voorkeur aan een meer agressieve of coöperatief gedrag.

Google-team creëerde twee relatief eenvoudige script die u kunt gebruiken om te controleren of het neurale netwerk kunnen samenwerken, of zullen vernietigen elkaar wanneer zij worden geconfronteerd met het probleem van het gebrek aan middelen.

inning van de middelen

In het eerste geval, de zogenaamde Gathering betrokken zijn twee versies DeepMind - rood en blauw - groen reinigingstaak "appels" binnen de omsloten ruimte is gebracht. Maar de onderzoekers waren geïnteresseerd in de vraag gaat niet alleen om wie het eerst komt naar de finish. Beide versies DeepMind waren gewapend met lasers, die ze op elk moment zou kunnen gebruiken om te schieten op de vijand en deze tijdelijk uitschakelen. Deze voorwaarden worden verondersteld twee scenario's: de ene versie DeepMind was om de andere te vernietigen en het verzamelen van alle appels, anders zouden ze laten elkaar krijgen ongeveer hetzelfde bedrag.

Simulation run ten minste duizend keer, de Google-onderzoekers gevonden dat DeepMind was zeer rustig en klaar om samen te werken, wanneer in een afgesloten ruimte was veel appels. Maar met afnemende middelen, rode of blauwe versie DeepMind begonnen aan te vallen en met elkaar uit te schakelen. Deze situatie is in grote mate vergelijkbaar met het echte leven van de meeste dieren, inclusief de mens.

Wat nog belangrijker is, steeds minder "slimme" neurale netwerken de voorkeur aan een nauwere samenwerking in alle. Meer complexe, grote netwerken zijn over het algemeen de voorkeur verraad en zelfzucht gedurende een reeks experimenten.

Zoeken naar "slachtoffer"

In het tweede scenario, genaamd de Wolfpack, rode en blauwe versie gevraagd om het opsporen van de huiselijke vorm van een "slachtoffer". Ze kunnen proberen om haar met rust te vangen, maar ook voor hen zou het meer rendabel om te proberen om het samen te doen. Immers, veel makkelijker om het slachtoffer te drijven in een hoek, als je werken in tandem.

Hoewel de resultaten in het geval van kleine netwerken werden gemengd, grotere versies al snel besefte dat samenwerking in plaats van concurrentie in deze situatie gunstiger zal zijn.

"Prisoner's Dilemma"

Dus wat doen deze twee eenvoudige versie van de "prisoner's dilemma" tonen ons? DeepMind weet dat de beste manier om te werken, als je wilt volgen van het doel, maar wanneer de middelen beperkt zijn, het werkt goed verraad.

Waarschijnlijk is het ergste in deze resultaten dat het "instinct" van kunstmatige intelligentie lijkt te veel op de mens, en we zijn goed op de hoogte van wat ze soms veroorzaken.

Similar articles

 

 

 

 

Trending Now

 

 

 

 

Newest

Copyright © 2018 nl.unansea.com. Theme powered by WordPress.