geplaatst door: ICT Consultant
Die past ook op een MacBook Air of Pro met een MagSafe adapter, en hij laadt dan ook nog op, Ziegler!
geplaatst door: Ziegler
Ah, goed om te weten.
geplaatst door: puk1980
Klopt helemaal.

https://support.apple.com/nl-nl/102397

Citaat
De oplaadpoort zoeken op de Mac

De Mac heeft een MagSafe 3-poort, USB-C-poorten of beide. Als de Mac beide poorten heeft, kunnen beide worden gebruikt om de batterij op te laden.
geplaatst door: MacFrankie

Het advies is een MacBook Air M1 voor €750... En dat is eerlijk gezegd een prima advies!
Op mijn werk heb ik al Windows, thuis wil ik geen systeembeheerder meer zijn!
geplaatst door: Wink10
Heeft de MacBook Air M1 een MagSafe aansluiting?
geplaatst door: Ome Kor
Nee. USB-C.
Keer 2, de Air M1 heeft 2 USB-C poorten.
geplaatst door: Ome Kor
Ja, ik ook. Mijn MacBook Air 11 inch uit 2013 was echt te traag geworden en de batterij hield het niet lang meer vol. Toen de M1 uitkwam, heb ik die mezelf als kerstcadeau gegeven.
geplaatst door: Mac Hammer Fan
Ter info voor de geïnteresseerden.
Het basismodel M3 MacBook Air heeft snellere SSD-snelheden na controverse met vorig model.
Citaat
De teardown-video van Max Tech bevestigt dat Apple weer twee 128-GB opslagchips gebruikt voor de nieuwe 13-inch MacBook Air met 256-GB opslag, in vergelijking met een enkele 256-GB chip in het equivalente model met de M2-chip. Deze verandering resulteert in snellere SSD lees- en schrijfsnelheden in tests, omdat de twee chips verzoeken parallel kunnen verwerken.

Max Tech heeft de Blackmagic Disk Speed Test tool met een bestandsgrootte van 5 GB uitgevoerd op zowel het M2 als het M3 model van de 13-inch MacBook Air met 256 GB opslagruimte en 8 GB RAM, en daaruit bleek dat de SSD in het M3 model tot 33% snellere schrijfsnelheden en tot 82% snellere leessnelheden haalde in vergelijking met de SSD in het M2 model.
 Apple gebruiker sedert 1992  Mac Studio M1 32 GPU met Dell 32 inch scherm  MacBook Pro 16" M2 Pro  iPad 2018  iPhone SE1&3  2x Mac Pro 5,1 3,33 Ghz 6 core Radeon 580 & Geforce 980  Apple Watch 8  Apple TV 4K  Power PC G5 dc 2,3 GHz  MacBook 13" SR 2007  PowerMac G4 Beige 500 MHz  etc
geplaatst door: boni
Ter info voor de geïnteresseerden.
Het basismodel M3 MacBook Air heeft snellere SSD-snelheden na controverse met vorig model.
Daar gaat natuurlijk maar een enkeling wat van merken maar het is een mooi meegenomen FIX.

MacBook Air M1-chip / 8 GB geh. / 512 GB SSD - Mac mini M1-chip / 8 GB geh. / 512 GB SSD - MacBook Pro 16-inch M1 PRO-chip / 16 GB geh. / 2TB SSD. Mijn Mac en Synology NAS setup.
geplaatst door: boni


In deze video wordt een coole (en prijzige) dock van een sponsor aangeprijsd:
https://ivanky.com/products/ivanky-docking-station-fusiondock-max-1?ref=3gcsMvfWaBjc__
MacBook Air M1-chip / 8 GB geh. / 512 GB SSD - Mac mini M1-chip / 8 GB geh. / 512 GB SSD - MacBook Pro 16-inch M1 PRO-chip / 16 GB geh. / 2TB SSD. Mijn Mac en Synology NAS setup.
geplaatst door: mcmt
Daar gaat natuurlijk maar een enkeling wat van merken...
Niet noodzakelijk. Apple wil AI op grotere schaal toepassen in de komende OS versies. In dit artikel en dit eerder artikel wordt uitgelegd hoe een groot LLM model (normaal meer dan 100 GB) nog in een 8 GB Macbook past (voor inference wel te verstaan). De Apple silicon architectuur speelt daarin een belangrijke rol, zoals unified memory, maar ook het gebruik van flash storage, zoals recent bleek uit een research paper van Apple.
geplaatst door: boni
Niet noodzakelijk. Apple wil AI op grotere schaal toepassen in de komende OS versies.
Ik zie (nog) niet wat de read & write snelheid van de SSD daarmee te maken heeft.
MacBook Air M1-chip / 8 GB geh. / 512 GB SSD - Mac mini M1-chip / 8 GB geh. / 512 GB SSD - MacBook Pro 16-inch M1 PRO-chip / 16 GB geh. / 2TB SSD. Mijn Mac en Synology NAS setup.
geplaatst door: boni
Er is weer een Mac die het te warm krijgt.... "M3 MacBook Air Overheating"...

MacBook Air M1-chip / 8 GB geh. / 512 GB SSD - Mac mini M1-chip / 8 GB geh. / 512 GB SSD - MacBook Pro 16-inch M1 PRO-chip / 16 GB geh. / 2TB SSD. Mijn Mac en Synology NAS setup.
geplaatst door: mcmt
Ik zie (nog) niet wat de read & write snelheid van de SSD daarmee te maken heeft.
Wat er bij LLM-gebaseerde toepassingen als ChatGPT tijdens 'inference' conceptueel gebeurt  (zoals voor het maken van een opstel) is:
  • Neem de prompt en vertaal die naar een lijst van 'tokens' (woorden, lettertekens, ...).
  • Laat het model los op die tokens om het 'meest relevante vervolgtoken' te berekenen.
  • Voeg dit berekende token toe aan de initiële lijst, en herhaal dit proces.
(Het lijkt eenvoudig, maar dat is het in feite niet. Dit artikel geeft bijvoorbeeld aan hoe zelfs experten blijkbaar moeite hebben om uit te klaren hoe een LLM berekening juist dat ene specifieke token oplevert.)

We spreken hier, afhankelijk van de gewenste kwaliteit van de LLM, over modellen van enige GB tot een paar 100 GB en tientallen miljarden parameters (of meer). Dit past snel niet meer in 8 GB (of zelfs 16 GB), zodat je allerlei slimmigheden moet inbouwen om dit werkbaar en responsief te maken (rekening houdend met de paar honderd andere processen die op je Mac kunnen actief zijn). In dit plaatje passen aangepaste algoritmen op maat van de SSD. Hoe ver Apple hierin zal gaan en wat de impact in de praktijk zal zijn, moet de toekomst uitwijzen.
geplaatst door: boni
Het lijkt eenvoudig, maar dat is het in feite niet.
Ik snap er avast niets van.  :sigh:
Ik stel gewoon vragen via Safari aan https://gemini.google.com/app en krijg binnen enkele seconden doorgaans een geweldig gecondenseerd antwoord van Google's Artificiële-intelligentie.
Is het de bedoeling dat computers dit binnenkort off-line zonder internet kunnen doen?
We zullen zien wat de toekomst brengt. Voorlopig volg ik die AI-ontwikkelingen maar van heel ver.
MacBook Air M1-chip / 8 GB geh. / 512 GB SSD - Mac mini M1-chip / 8 GB geh. / 512 GB SSD - MacBook Pro 16-inch M1 PRO-chip / 16 GB geh. / 2TB SSD. Mijn Mac en Synology NAS setup.
geplaatst door: puk1980
Is het de bedoeling dat computers dit binnenkort off-line zonder internet kunnen doen?
Reken daar maar niet op.

Maar er zijn natuurlijk nog genoeg andere intelligente taken die je lokaal op je devices kunt laten uitvoeren.
geplaatst door: MacFrankie
Het is al eerder gezegd, ook op deze site. Bij LLM's heb je veel geheugen nodig, en heb je dat niet, dan snelle opslag.

Wil je on-device AI doen, en daar is Apple nu mee bezig, dan is 8GB / 256GB erg karig (lees: al snel veel te weinig). Dus dan moet je terugvallen op AI in de cloud, en dat is inleveren op privacy.
Op mijn werk heb ik al Windows, thuis wil ik geen systeembeheerder meer zijn!
geplaatst door: Ziegler
Hoezo is Apple daar nu mee bezig? Je bedoelt dat je Siri offline ook vragen kan stellen?
geplaatst door: MacFrankie
Ja, bijvoorbeeld. Zonder dat alles naar Apple wordt gestuurd.

Zie hier het bericht op Tweakers.

Want wat is anders het nut van de neural engine cores in de Axx / Mx cpu's?
Op mijn werk heb ik al Windows, thuis wil ik geen systeembeheerder meer zijn!
geplaatst door: Ziegler
Dat soort vragen moet je mij niet stellen . . . Ik weet iets van economie, maar daar houdt het op.
geplaatst door: boni
Wil je on-device AI doen, en daar is Apple nu mee bezig, dan is 8GB / 256GB erg karig (lees: al snel veel te weinig).
Ja, dat bedacht ik me ook.
Nu de M3-chips en "LLM's" in beweging beginnen te komen komt Apple niet meer weg met 8GB / 256GB op de instappers / niet-Pro modellen.
MacBook Air M1-chip / 8 GB geh. / 512 GB SSD - Mac mini M1-chip / 8 GB geh. / 512 GB SSD - MacBook Pro 16-inch M1 PRO-chip / 16 GB geh. / 2TB SSD. Mijn Mac en Synology NAS setup.