Terug komend op het defragmenteren. OSX defragmenteerd alle bestanden die kleiner zijn als 20 mb direct (dit zegt tenminste diverse sites). Maar wat is met de grote bestanden b.v. films en ISO's. Nog leuker als je dingen gaat downloaden komen deze overal en nergens terecht op je harddisk. Ik ken dat van windows machines, wordt een grote rode bool als je schijdefrag gaat starten.
Toen kwam ik iDefrag tegen. Het probleem van defragmenteren op een mac is dat dat alleen maar kan als je van een andere volume hebt opgestart. m.a.w. je kan niet je boot volume defragmenteren. Dus die zooi op een bootable USB stik geplant. En hiermee dan mijn boot volume gedefragmenteerd. Dit programma defragmenteerd niet alleen maar zet de software ook in een logische volgoorde.
Uiteraard heb ik gebenchmarked. Ik als IT'er wil cijfers zien. Kon niet zo snel een harddisk benchmark tool vinden dus maar Xbench gepakt. Volgens mij is dat nogsteeds een PPC progje en geen X86. Maar het werkt wel met resultaat dat na mijn defrag aktie er een snelheid winst was van 25%. Weet iemand anders een ander Benchmark programma wat ik bij de volgende mac kan gebruiken? Heb n.l. nog mijn iMac te gaan waar ik best wel veel op download.
Hieruit blijkt dan ook weer het verhaal dat je meerdere volumes aan zou moeten maken. 1 voor je OS met al je software en 1 voor al je data. En als je veel download nog eentje voor je downloads die je dan als ze klaar zijn overzet naar je data schijf. Het heen en weer gekopieer tussen 2 volumes is ook een soord van defragmenteren.
Wat is jullie meening hierover?
Hierbij nog de tabel van xBench. Uiteraard heb ik de harddisk 5 keer per ivent getest.
(Bewerkt door Roman78 om 16:00, 13-09-2010)
Roman78 om 15:52, 13-09-2010...Hieruit blijkt dan ook weer het verhaal dat je meerdere volumes aan zou moeten maken. 1 voor je OS met al je software en 1 voor al je data. En als je veel download nog eentje voor je downloads die je dan als ze klaar zijn overzet naar je data schijf. Het heen en weer gekopieer tussen 2 volumes is ook een soord van defragmenteren....
Als je terabytes over hebt, kun je dat inderdaad doen. In alle andere gevallen: partitioneren kost meer ruimte dan het aan (snelheids)voordelen oplevert!
Mijn ervaring met iDefrag is dat het een lang en soms moeizaam proces is en ook niet zonder gevaar op fouten en dus problemen.
Zal als ik mijn iMac doe eens de tijd meten vanaf de boinc tot het inlogscherm. Want ook die is wat trager inmiddels. OS staat er ook al weer meer als een jaar erop en er is veel op gedownload.
@Max Gaav: klopt zo kan het ook. Maar ik vind dat geen handige methode. Zou iDefrag problemen kunnen veroorzaken? Okee als stroomuitval krijgt od hij spontaan reboot zou ik me kunnen indenken dat er wat fout gaat. Wat ik zo gemerkt heb draait het programma prima.
Wat ook scheelt is hoe snel je opstartschijf is. Ik heb onlangs eens getest.
"Ik heb een RAID-0 aangemaakt van twee schijven van 500GB elk & even getest wat er gebeurt als ik daarvan opstart (vergeleken met de Velociraptor die ik als opstartschijf heb).Van Boing tot verschijnen Dock.Als de eerste keer van de Raid opgestart wordt, duurt het langer, dus hier de resultaten van de volgende twee keer.
Raid1e: 37,86 sec2e: 35,86 sec
Raptor1e: 33,43 sec2e: 32,81 sec
Dat maakt dus niet zo veel uit, maar ik denk als je de Raid uitbreidt, het nog sneller zal gaan. Nu is het verschil ongeveer 10%."
NB: Een Velociraptor is een 10K-drive met een bovenmodale cache. Bij mij hangt-ie aan een SATA-connectie in de tweede optical bay.
In de praktijk de meest veilige manier en je spaart je ook nog eens de kosten van een extra programma uit...
Ik ga niet de moeite nemen het te weerleggen; tenzij je met onderbouwing van testen door anderen komt.
Fijn dat het voor jou werkt...
(Bewerkt door Flix om 22:57, 13-09-2010)
Allerlei onderwerpen komen nu eenmaal op op gezette tijden voorbij en er zijn telkens weer nieuwe lezers (en nieuwe technische ontwikkelingen). Als jij zo precies weet hoe het zit, laat dan anderen daarvan meegenieten. Of onthoud je van een reactie.
Het hangt ook een beetje van de programma's af hoe goed het OS zijn werk kan doen. Vertelt een programma van te voren hoe groot een bestand gaat worden, dan kan het OS een mooi plekje vinden. Maar begint een programma gewoon te schrijven en blijft hij er dingen aanplakken totdat hij het bestand weer sluit, dan kan het OS geen mooi plekje zoeken. Is het bestand inmiddels groter geworden dan 20MB, dan gaat het OS ook niks meer doen. Aperture is daar een mooi voorbeeld van, toen ik de Aperture library nog op mijn boot-schijf had staan had je in no-time een zwaar gefragmenteerde thumbnail-database. Daar wordt heel Aperture vervelend traag van. Ook Safari slaat tegenwoordig zijn cache weer in een enkel bestand op, dat al vrij snel over een paar honderd fragmenten verdeeld wordt.
Wat ik doe:- Voldoende ruimte vrij houden op je schijven (50+GB vrij houden).- Zodra je vrije ruimte te gefragmenteerd raakt, gewoon lekker iDefrag er overheen gooien. Ik hoef dat niet te benchmarken of in de gaten te houden. Zodra alles traag wordt en mijn harde schijf overuren begint te ratelen is het weer tijd om mijn computer een nachtje aan te laten staan.
iDefrag doet zijn uiterste best om veilig te werken (tenzij je die opties uitzet uiteraard). Mijn ervaring is dat het daar goed in slaagt, ik heb nooit problemen ondervonden en hun support is heel goed.
Iedereen die beweert dat defragmenteren niet nodig is zou het eens moeten proberen. Er zijn wel degelijk heel veel situaties waarin je echt een veel sneller systeem krijgt door om de zoveel tijd te defragmenteren. Ik schat dat ik dat zo eens in de 2-3 maanden een keer doe.
(Overigens is in de nieuwste iDefrag het niet meer nodig om van een externe schijf of cd te booten en kun je nu ook individuele files defragmenteren)
Pieterr om 16:25, 13-09-2010Een vaak geciteerde bron is dit artikel: Fragmentation in HFS Plus Volumes.
Het artikel van meneer Amith is natuurlijk wel geschreven in een tijd (2004) dat de jeugd zich nog niet suf zat te downloaden aan gigabytes aan films...
moet ik me nu zorgen maken ??of is dat bij een SSD al helemaal niet nodig, als het om fragmentatie gaat ??
(Bewerkt door fred44nl om 11:34, 15-09-2010)
Na een week met diskwarrior/graph gekeken naar items out of order percentage op de SSD omdat ik sommige dingen niet heel veel sneller vond draaien en daaruitbleek dat dit percentage 40% was wat mij wel verbaasde want ik draai met enigeregelmaat diskwarrior de afgelopen jaren.
Ik heb de SSD met diskwarrior dus opnieuw opgebouwd en nu, ruim 2 weken later, is mijn items out of order percentage nog steeds < 1% en het systeem is merkbaar sneller
Ik zou adviseren om eerder met diskwarrior te kijken naar items out of order / hoeoptimised je directory structuur is dan defragmenteren.
- MacOS X bestaat uit ongelooflijk veel kleine bestanden (en is daarmee 'gevoeliger' voor fragmentatie)- HFS (Plus en Extended) heeft gewoon last van fragmentatie, goed er wordt in het OS het nodige gedaan om de problematiek te verzachten, maar fragmentatie is net zo'n groot probleem als onder Windows- De snelheidswinst kan in sommige gevallen tot wel tientallen procenten schelen!
- Is defragmenteren zinvol voor SSD-schijven? Ik zou het niet doen, en wel hierom: veel meer dan een optische/magnetische schijfeenheid heeft een SSD een (verhoudingsgewijs) beperkt aantal maal dat je de schijf kunt beschrijven. Defragmenteren kost (onnodig) veel (levens)cycli. Te meer een SSD geen gebruik maakt van bewegende delen (lees/schrijfkop), waarmee het belangrijkste voordeel van defragmenteren: de snelheidswinst, niet noemenswaardig gro(o)t(er) zal zijn.
Na enig experimenteer ben ik tot de conclusie gekomen dat hetgeen hier in het forum wordt geroepen (de schijf te kopiëren naar een extern station om vervolgens terug te kopiëren) volledig juist is: het is een perfecte manier om te defragmenteren. Althans, als je je aan de spelregels houdt. En die zijn:
- Schoon je HDD zo veel mogelijk op: ontdoe het van onnodige (cache) bestanden- Maak vervolgens een kopie (mag dmv een disk-image) van je HDD- Herstart van een extern (opstart) volume- Formatteer de (interne?) HDD- Mount de diskimage- Kopieer de gehele inhoud VAN DE GEMOUNTE PARTITIE naar de interne schijf
Laatstgenoemde handeling is wezenlijk anders dan het terugzetten van een diskimage naar de interne schijf: in ons geval wordt op file-niveau de inhoud teruggezet: netjes achter elkaar. Het proces kost iets meer tijd, maar ... de schijf is daarmee volledig gedefragmenteerd.
Goedkoop, gemakkelijk en met CarbonCopyCloner / SuperDuper hulpmiddel super eenvoudig.
Wat kost het in tijd? Mijn meeste data heb ik op externe schijven, mijn interne schijf is op dit moment gevuld met 50GB aan data. Het kost op een MacBook (Pro) 2,66ghz ongeveer 80 minuten om een backup te maken. Terugzetten duurt zo ongeveer 35 tot 40 minuten.
* onnodige (cache) bestanden weggooien. Waarom maakt dit uit? Omdat als je ze na defragmentatie wegggooit er 'gaten' onstaan of zo?
* Werken met diskimage ipv van simpelweg heen-en-weer 'back-uppen'. Waarom levert dat niet hetzelfde resultaat op?
Max Gaav om 10:09, 14-09-2010Doctor Apple, zou je willen uitleggen:* onnodige (cache) bestanden weggooien. Waarom maakt dit uit? Omdat als je ze na defragmentatie wegggooit er 'gaten' onstaan of zo?* Werken met diskimage ipv van simpelweg heen-en-weer 'back-uppen'. Waarom levert dat niet hetzelfde resultaat op?
ja en wat zijn dan die onnodige cachebestanden ??
Caches dienen ertoe om de performance van het OS en de toepassingen te verbeteren. Deze worden ottomagisch helemaal opnieuw opgebouwd als je ze verwijderd.
Het backuppen van Caches zal geen schade berokkenen, maar voegt niets toe aan het proces en kost ruimte (en tijd). In het geval MacOS X wordt teruggezet op de interne schijf worden de caches (afhankelijk van de gevolgde procedure) niet teruggezet. (CarbonCopyCloner en SuperDuper nemen de bestanden niet (standaard) mee).
Wat wel wezenlijk kan schelen is de wijze waarop je de bestanden terugzet (restore). Disk Images (.dmg) zijn meestal raw disk images (block niveau). Het terugzetten van een diskimage zal de structuur van de disk ook terugzetten. Als de schijf gefragmenteerd was ten tijde van de backup, dan wordt deze ook gefragmenteerd terug gezet. Cache bestanden worden weliswaar opnieuw opgebouwd, maar de fragmentatie blijft: evenals eventuele problemen met de catalog.
Het verschil zit 'm in 'hdiutil create -srcdevice' vs 'hdiutil create -srcfolder'. Wat de klik-shortcut is weet ik even niet. Wel dat hier een groot verschil tussen zit.
Het kopiëren van de bestanden op 'bestandsniveau' zorgt dus voor een schone 'catalog', 'optimalisatie' en 'defragmentatie'. Dat is de reden om de disk-image EERST te mounten om vervolgens de inhoud hiervan op bestandsniveau te kopiëren.
Doctor Apple om 11:23, 14-09-2010Als de schijf gefragmenteerd was ten tijde van de backup, dan wordt deze ook gefragmenteerd terug gezet. Cache bestanden worden weliswaar opnieuw opgebouwd, maar de fragmentatie blijft: evenals eventuele problemen met de catalog.
Maar ik had alweer een tijdje geleden (jaar?) wel de volgende ervaring: met iDefrag mijn schijf bekeken, was redelijk gefragmenteerd. Verder niets met iDefrag gedaan. Daarna een backup gemaakt naar een externe harde schijf, vervolgens daarvan opgestart, vervolgens de interne HD compleet gewist en de externe HD 'terug-gebackupt' naar de interne schijf. Opnieuw gecheckt met iDefrag: interne schijf geheel gedefragmenteerd. Hoe kan dat dan?
omdat m'n SSD geen last heeft van een "trage" kop van een HD èneen SSD niet het eeuwige leven heeft, laat ik het gewoon zo
Na enig experimenteer ben ik tot de conclusie gekomen dat hetgeen hier in het forum wordt geroepen (de schijf te kopiëren naar een extern station om vervolgens terug te kopiëren) volledig juist is: het is een perfecte manier om te defragmenteren. Althans, als je je aan de spelregels houdt. En die zijn:- Schoon je HDD zo veel mogelijk op: ontdoe het van onnodige (cache) bestanden- Maak vervolgens een kopie (mag dmv een disk-image) van je HDD- Herstart van een extern (opstart) volume- Formatteer de (interne?) HDD- Mount de diskimage- Kopieer de gehele inhoud VAN DE GEMOUNTE PARTITIE naar de interne schijfLaatstgenoemde handeling is wezenlijk anders dan het terugzetten van een diskimage naar de interne schijf: in ons geval wordt op file-niveau de inhoud teruggezet: netjes achter elkaar. Het proces kost iets meer tijd, maar ... de schijf is daarmee volledig gedefragmenteerd.Goedkoop, gemakkelijk en met CarbonCopyCloner / SuperDuper hulpmiddel super eenvoudig.
@Doctor AppleKan ik ergens een gedetailleerde 'handleiding' vinden waar dit process stap-voor-stap beschreven is?
appeltjeitje om 12:40, 15-09-2010Kan ik ergens een gedetailleerde 'handleiding' vinden waar dit process stap-voor-stap beschreven is?
Stap 0: Installeer (de trial versie van) SuperDuperStap 1: Maak een kopie ("bootable clone") van je OS X partitie naar een externe schijfStap 2: Zet de kopie terug op je interne schijfStap 3: Er is geen stap 3.