Apple wil AI "on device" doen. Apple, Microsoft en Google doen nu AI in de cloud.
Lees "AI in de cloud" als "zend al je gegevens, gesproken woord, getikte zinnen naar een centrale server van Apple, MS, Google".
Iets zegt me dat ik liever "AI on device" heb: je houdt nog iets van privacy over.
Afhankelijk van RAM, CPU, neural engine cores, GPU cores, ... is AI snel genoeg en goed genoeg om "on device" te doen. Is het niet snel genoeg, dan zal je in de Windows wereld trage AI hebben. Voor Apple is trage AI geen optie, dus wordt er overgeschakeld naar "AI in de cloud".
[glazenbolmudus]
Microsoft en Google blijven (hoofdzakelijk) AI in de cloud doen. Zo houden ze volledige controle (en kan Google data blijven verzamelen).
Apple heeft privacy hoog in het vaandel staan, en zal bij voorkeur AI on device aanbieden, als... je Mac daartoe in staat is. Niet "in principe toe in staat", maar "volgens Apple's standaarden toe in staat". Dus er zal ongetwijfeld een ondergrens zijn: Mx SoC, x GB RAM, x neural engine cores, x GPU cores, ...
Wil je over 3 jaar on device AI hebben, dan maak je met een M3 met 10 core GPU en 16 GB RAM meer kans dan met een M1 met 7 core GPU en 8 GB RAM.
Maar het zou ook kunnen dat een M4 met 16 neural engine cores, 12 GPU cores en 24 GB RAM de ondergrens is. Zit je daar onder, dan wordt het AI in de cloud, ook al zou je M1, 2 of 3 het in principe best aankunnen.
[/glazenbolmudus]
Afwachten dus!