
Apple publiceert eigen onderzoek over kunstmatige Intelligentie
Kunstmatige intelligentie is het gebied waar op dit moment alle grote tech-bedrijven enorm op investeren. De verwachting is dat het bedrijf dat daar leidend in zal zijn een enorm voordeel ten opzichte van de rest zal hebben.
Of we daar blij mee moeten zijn is mogelijk een tweede, Stephen Hawking
waarschuwde bijvoorbeeld recent nog dat dit veld zowel de beste als de ergste ontwikkeling voor de mensheid zou kunnen zijn.
Ondertussen gebruiken we het allemaal, van het vragen van dingen aan Siri tot en met gezichtsherkenning in Apple's Foto's-app. Want Apple is ook erg actief op dit gebeid, en Siri wordt in de tech-pers ook regelmatig vergeleken met de concurrentie.
Apple en kunstmatige intelligentieBegin deze maand liet Apple weer eens zien dat er onder Tim Cook een veel opener koers wordt gekozen, er werd toen een bijeenkomst georganiseerd waarin de genodigden
op de hoogte werden gebracht hoever ze in Cupertino zijn met de ontwikkelingen op het gebied van kunstmatige intelligentie.
De onderzoekers bij Apple claimen op dit moment twee keer zoveel foto's per seconde te kunnen verwerken dan het vergelijkbare systeem van Google. Met behulp van de kracht van de videokaart zou dat 3.000 beelden per seconde zijn, terwijl Google eerder liet weten dat zij 1.500 halen. Daarbij heeft Apple ook nog eens maar een derde van de videokaarten nodig als Google voor die 1.500 per seconde zou gebruiken, als dat allemaal klopt dan is de voorsprong inderdaad erg groot.
Gepubliceerd onderzoekApple heeft het niet alleen gelaten bij deze presentatie voor genodigden, inmiddels is er ook onderzoek
gepubliceerd onder de titel "Learning from Simulated and Unsupervised Images through Adversarial Training". Daarin legt Apple uit hoe ze gezichtsherkenning aan het ontwikkelen zijn. Opvallend genoeg blijkt het efficiënter om computers te leren gezichten te leren herkennen door het bestuderen van gezichten die door computers gegenereerd zijn, bijvoorbeeld die in games.
Dit is het geval omdat die al uitgebreide labels hebben, terwijl die labels bij 'gewone' beelden eerst nog allemaal toegevoegd moeten worden.
Daarbij is één probleem: de computer worden dan erg goed om gegenereerde gezichten te herkennen, maar die kennis is niet altijd bruikbaar bij foto's van echte mensen. Dat probleem wordt dan aangepakt met het zogenaamde Simulated+Unsupervised learning, waarbij het realisme van een gegenereerd beeld wordt verbeterd.
Daarbij gebruiken ze bij Apple een systeem waarbij twee neurale netwerken (zogenaamde Generative Adversarial Networks) de concurrentie aangaan om zo realistisch mogelijke beelden te genereren.
Hieronder een voorbeeld van hoe dit werkt. Bovenaan zie je drie foto's van echte mensen, linksonder wat de computer eerst mee moest werken, rechtsonder het resultaat nadat de neurale netwerken er aan te pas kwamen.

Omdat het beeld rechtsonder veel dichter ligt bij hoe wij er echt uitzien, ligt het voor de hand dat de gezichtsherkenning van dit systeem veel accurater zal zijn dan wat we tot nu toe gewend zijn.