Het is al eerder gezegd, ook op deze site. Bij LLM's heb je veel geheugen nodig, en heb je dat niet, dan snelle opslag.
Wil je on-device AI doen, en daar is Apple nu mee bezig, dan is 8GB / 256GB erg karig (lees: al snel veel te weinig). Dus dan moet je terugvallen op AI in de cloud, en dat is inleveren op privacy.