geplaatst door: Robert
https://www.macfreak.nl/modules/news/images/Siri-ios11-icoon.jpg
Waar Apple op dit moment al prominent AI gebruikt
Bij Apple hebben ze het liever over Machine Learning (ML) in plaats van kunstmatige intelligentie of AI. Niet voor niets, want hoewel de huidige algoritmes tot steeds meer in staat zijn, is er duidelijk nog geen sprake van zelfstandig denkende en ontwikkelende intelligentie.

Bij Siri is Apple duidelijk terughoudend, maar inmiddels is ML op steeds meer plekken in Apple’s besturingssystemen te vinden, hieronder een overzicht.

https://www.macfreak.nl/modules/news/images/zArt.SiriRainbow.png
Waar Apple op dit moment al prominent AI gebruikt


Tekstcorrectie

In de afgelopen jaren hebben we gezien dat de algoritmes bij het invoeren van tekst steeds beter worden. Eerst gebeurde dat door het corrigeren van verkeerd getypte letters, daarna door steeds beter te voorspellen wat we in een bepaalde context het vaakst typen en deze suggesties aan de bovenkant van het toetsenbord te tonen.

Inmiddels zien we in iOS 17 en macOS 14 Sonoma steeds vaker woorden al aangevuld worden in het grijs, de spatiebalk aantikken is dan voldoende om het woord meteen in de tekst te voegen, waarbij je natuurlijk gewoon door kan blijven typen.


Mocht er ooit iets gecorrigeerd worden terwijl je dat niet wilt, bijvoorbeeld de naam van iets of iemand, dan is met je vinger of cursor op het woord ‘gaan staan’ voldoende, je krijgt dan meteen te zien wat jij eigenlijk getypt hebt, inclusief de mogelijkheid om het daarnaar terug te veranderen.

Siri

Zoals je al eerder in dit artikel kon lezen is Apple nogal terughoudend met de spraakassistent Siri. Niet voor niets, in Cupertino willen ze erg graag vermijden dat er pagina’s komen met alle idiote dingen die Siri gezegd heeft, zoals er wel voor bijvoorbeeld ChatGPT bestaan. Of denk aan het schandaal waarbij Amazon’s Alexa nepnieuws over de verkiezingen in de VS bleek te verspreiden.

Het TrueDepth-camerasysteem en Face ID

De introductie van het TrueDepth-camerasysteem en Face ID bij de introductie van de iPhone X in november 2017 liggen alweer ver achter ons, maar het scannen van ons gezicht in een oogwenk met 30.000 infraroodstippen en dat vergelijken met zowel het 3D beeld als de ook opgeslagen 2D scan is nog steeds iets wat de concurrentie niet eens geprobeerd heeft. Of wel heeft geprobeerd, maar uiteindelijk toch maar heeft laten varen.

Het on-device Deep Neural Network (DNN) wat daarbij gebruikt wordt is nog steeds een knap staaltje ML. Wil je daarover meer lezen, daarvoor kan je op deze pagina van Apple terecht.

https://www.macfreak.nl/modules/news/images/zArt.PresentatieFaceIDZonderPhilSchiller.jpg
Waar Apple op dit moment al prominent AI gebruikt


Herkenning in Foto’s

In Foto’s kunnen gezichten herkend worden, sinds iOS 17 en macOS 14 Sonoma geeft dat niet meer alleen voor mensen, maar ook huisdieren. Zo kan je dus ook zoeken naar een foto van je naaste met zijn of haar huisdier, ook die combinatie is geen enkel probleem voor de zoekfunctie.


De camera

Dankzij de Neural Engine hebben we ook functies zoals Deep Fusion. Het werd gelanceerd met de iPhone 11 en is natuurlijk aanwezig in alle iPhone’s die sindsdien zijn uitgebracht.

Deep Fusion is een soort neurale beeldverwerking. Bij het nemen van een foto maakt de camera in totaal negen opnames. Er zijn twee sets van vier opnamen die worden gemaakt vlak voordat de ontspanknop wordt ingedrukt, gevolgd door één opname met een langere belichting wanneer de knop wordt ingedrukt.


Het Machine-Learningproces, gedreven door de Neural Engine, begint en zoekt de best mogelijke opnamen. Het resultaat is vooral gericht op scherpte en kleurnauwkeurigheid.

De portretmodus maakt ook gebruik van Machine Learning. Terwijl de high-end iPhone modellen ook geholpen worden door de extra hardware om de gebruiker te helpen scheiden van de achtergrond, vertrouwt de iPhone SE van 2020 bijvoorbeeld alleen op Machine Learning om een goed portret met een wazig gemaakte achtergrond te krijgen.


Agenda

Machine Learning-algoritmen helpen ook om hun algemene taken te automatiseren. ML maakt het mogelijk om slimme suggesties te krijgen met betrekking tot mogelijke evenementen waarin de gebruiker geïnteresseerd zou kunnen zijn.

Als iemand bijvoorbeeld een iMessage of een bericht in Mail stuurt met daarin een datum, of zelfs alleen maar de suggestie om iets te gaan doen, dan kan iOS een evenement aanbieden om toe te voegen aan de Agenda-app. Je hoeft maar een paar keer te tikken om het evenement aan de app toe te voegen, zodat je het gemakkelijk kunt onthouden.

En nog veel meer

Dit zijn een aantal voorbeelden van hoe Apple ML gebruikt en hoezeer het al in onze levens is doorgedrongen. Er zijn natuurlijk nog veel meer (kleine) voorbeelden te geven, maar de opsomming hierboven zijn de belangrijkste waarmee wij, de gebruikers, in de praktijk erg vaak de vruchten van plukken.


Klik hier voor informatie over het onder de aandacht brengen van producten of diensten op MacFreak.