geplaatst door: Robert
https://www.macfreak.nl/modules/news/images/iOS13-icoon.jpg
Eerste beta iOS 13.2 met Deep Fusion, wat betekent dat?
De eerste beta-versie van iOS 13.2 is uit, daarin zit onder andere Deep Fusion. Hierbij wordt de A13 Bionic processor van de iPhone 11 gebruikt om met neural image processing uit 9 beelden er 1 te destilleren. Daarmee gaat de kwaliteit enorm omhoog, ondanks de relatief lage resolutie van deze iPhones.

Hoe Deep Fusion precies werkt kan je hieronder lezen, maar belangrijker is natuurlijk hoe goed de resultaten zijn. En de eerste die daarvan naar buiten komen zijn indrukwekkend, de beelden zijn nog een stuk scherper en er is veel meer detail. Dat betekent trouwens ook grotere bestanden: een Smart HDR foto met een iPhone Xr genereert een 1,4 MB HEIC bestand, een Deep Fusion foto met een iPhone 11 betekent een 2,6 MB HEIC bestand. Dus bijna een verdubbeling in grootte. In de tweets hieronder een aantal voorbeelden.

Invalid Tweet ID
Hieronder de stappen die worden gebruikt bij het maken van een Deep Fusion foto. Let op, dit werkt alleen als je het vastleggen van data buiten het frame uit hebt staan, die twee opties gaan niet samen (waarschijnlijk is dit de reden dat Apple dat standaard bij foto's uit heeft staan). Verder helpt dit ook om ruis nog beter weg te filteren, digitale ruis zal in verschillende foto’s nooit op exact dezelfde plek ontstaan.

https://www.macfreak.nl/modules/news/images/zArt.DeepFusionExample.jpg
Eerste beta iOS 13.2 met Deep Fusion, wat betekent dat?

klik op de afbeelding voor een grotere versie

Citaat
  • Tegen de tijd dat jij op de sluiterknop drukt heeft de camera al vier opnames met een snelle sluitertijd gemaakt om ervoor te zorgen dat beweging scherp wordt vastgelegd, en vier standaard-opnames. Als je op de sluiterknop drukt wordt er een opname gemaakt met een langere sluitertijd, om zoveel mogelijk detail vast te leggen.
  • De drie drie standaard-opnames en die met de langere sluitertijd worden samengevoegd in dat Apple ‘synthetic long’ noemt. Dit proces is fundamenteel anders dan Smart HDR.
  • Deep Fusion kiest het beeld met een korte sluitertijd met het meeste detail, en voegt die samen met de “synthetic long’-versie. Waarbij Smart HDR uiteindelijk veel meer beelden samengevoegd worden gaat het bij Deep Fusion uiteindelijk om ‘maar’ twee beelden. Maar één van die twee is dus samengesteld uit in de stap hiervoor samengevoegde beelden. Daarbij wordt de ruisonderdrukking ook op een andere manier uitgevoerd.
  • Daarna gaan de beelden door vier processen, pixel voor pixel, waarbij iedere stap voor meer detail moet zorgen. Daarbij krijgen bijbeeld de lucht en muren de minste aandacht, terwijl op huid, haar, stoffen etc. juist de nadruk ligt. Hiermee worden de beslissingen gemaakt hoe beide beelden samengevoegd worden, waarbij de kleuren, luminantie en details van de beste gekozen worden.
  • Het finale plaatje wordt gegenereerd.


met dank aan forumlid 'VwVanFan', die dit nieuws als eerste meldde



Bereik MacFreak’s 85.000 maandelijkse bezoekers met sponsoring, advertorials of pagelinks.
Reach MacFreak’s 85.000 monthly visitors through sponsoring, advertorials or pagelinks.
Klik hier voor informatie over het onder de aandacht brengen van producten of diensten op MacFreak.
antw: Eerste beta iOS 13.2 met Deep Fusion, wat betekent dat?
4 oktober 2019 - 19:19    reactie #1
geplaatst door: Jurriaan
en dit is dus allemaal software die deze beelden beter zichtbaar maakt. Indrukwekkend.
MBA '20 M1| SE1 & 2 iOS 15/17 | Mini6 iPadOS 17 | ATV 4K MKI  TVOS17|