
iPhone Xr gaat de onscherpte uit een algoritme halen
Tijdens de keynote liet Apple de voorliefde voor fotografie zien door de manier waarop de instellingen voor onscherpte in de nieuwe iPhones aan te passen zijn. Dat kan traploos en daarbij worden diafragma-getallen gebruikt (een hoger getal geeft een scherpere achtergrond).
Die onscherpte wordt bereikt door de data van de groothoek- en de telelens te combineren, waarop een algoritme wordt losgelaten. Tenminste, in de iPhone Xs en de Xs Max, de iPhone Xr heeft maar één lens en kan dus helemaal geen data van twee lenzen combineren. Dat betekent dat in de Xr het allemaal door het algoritme berekend wordt, waardoor de kans ook wat groter wordt dat onscherpte ook op plekken te zien zal zijn waar het eigenlijk niet hoort, bijvoorbeeld de voorgrond.

iPhone Xr gaat de onscherpte uit een algoritme halen
In
dit artikel van Lance Ulanoff voor Medium lezen we daar het volgende over:
Put simply, Apple is employing three distinctly different depth-information-capturing technologies to drive the same depth editing result. Townsend described it to me as using three different sources of information: the dot-based depth sensor in the TrueDepth module, the dual-lens stereo imagery of the 12-megapixel cameras on the back of both the XS and XS Max, and an almost entirely algorithmic solution on the XR.
De Townsend in het citaat hierboven is Graham Townsend, Apple’s Senior Director of Camera Hardware, dus die weet wel waar hij het over heeft.

iPhone Xr gaat de onscherpte uit een algoritme halen
Het nieuws op MacFreak wordt gesponsord door Upgreatest (ssd upgrades op locatie)