geplaatst door: Robert
https://www.macfreak.nl/modules/news/images/iPhoneSE2020Lineup-icoon.jpg
Hoe de iPhone SE diepte kan zien met één lens
Apple’s iPhones kunnen al een tijdje foto’s met een onscherpe achtergrond maken. Daar gebruiken ze bijna allemaal meerdere lenzen voor, tenslotte de makkelijkste manier om diepte te zien. De uitzondering daarbij was tot nu toe de iPhone Xr, bij dat model worden de focus pixels van de sensor daarvoor gebruikt.

Maar die slimmigheid van Apple was bij de nieuwe iPhone SE niet mogelijk, de sensor daarvan ‘ziet’ een minder groot gebied dan die van de iPhone Xr. Apple’s oplossing was Machine Learning, mogelijk door de erg snelle centrale A13 processor in de nieuwe iPhone SE en de extra Neural Engine chip. Ben Sandofsky van de uitstekende fotografie-app Halide (€ 6,99) doet in dit uitstekende artikel uit de doeken hoe dit werkt, hieronder een voorbeeld daaruit.

https://miro.medium.com/max/4800/1*6YBtJJULOrnsjxk4tEE88Q.jpeg
Hoe de iPhone SE diepte kan zien met één lens

klik op de afbeeldingen voor een grotere versie

In het voorbeeld hierboven kan je zien dat het onderwerp uitstekend door de software is ‘vrijgezet’, en de achtergrond daarna onscherp is gemaakt. Alleen onderaan bij het rechteroor is er een stukje van de bakken in de achtergrond per ongeluk niet meegenomen, iets wat je op het eerste gezicht nauwelijks opvalt.

Maar voor de oplettende kijker is er nog iets anders aan de hand: het onderwerp op deze foto is geen mens, terwijl met de nieuwe iPhone SE volgens Apple alleen maar dit soort portretten van mensen gemaakt kunnen worden. Dit is in dit voorbeeld mogelijk omdat Halide de diepte-informatie van de nieuwe iPhone SE voor veel meer dan van alleen maar mensen gebruikt.

Het werkt ook met 2D afbeeldingen

Omdat de diepte voor de volle honderd procent komt door de gegenereerde data blijkt dit ook mogelijk met 2D afbeeldingen. Hieronder een 50 jaar oude dia van de grootmoeder van Ben Sandofsky zelf, waarbij je in het midden de diepte-data kan zien, en rechts hoe de nieuwe iPhone SE ook daarvan de achtergrond onscherp heeft gemaakt.

https://miro.medium.com/max/1400/1*cQEGVmDCeZAxxXRe0zmLqA.jpeg
Hoe de iPhone SE diepte kan zien met één lens


Hoewel de Machine Learning in de nieuwe iPhone SE er nog wel eens naast zit, zijn de keren dat het wel goed werkt ok, maar niet zo goed als een iPhone 11 Pro. In het voorbeeld hieronder is de foto links van de iPhone 11 Pro, rechts van de nieuwe iPhone SE.

https://miro.medium.com/max/4800/1*eMHU0vafkgcj5j_RTwfziw.jpeg
Hoe de iPhone SE diepte kan zien met één lens




 #iPhoneSE #Halide
Klik hier voor informatie over het onder de aandacht brengen van producten of diensten op MacFreak.
antw: Hoe de iPhone SE diepte kan zien met één lens
28 april 2020 - 16:58    reactie #1
geplaatst door: Kapotlood
Knap hoor, hoe ze met software die diepte weten te ontleden en na te bootsen wat normaal gesproken door hardware wordt gedaan. Bij die laatste foto zie je wel dat er meer gradaties van diepte-onscherpte te zien is, maar petje af voor machine learning tegenwoordig. Het begint steeds meer kwaliteit af te leveren :)

Ik zag eerst die enkele camera op de achterzijde en wilde 'm alleen daarop al afschrijven, maar dit maakt denk ik voor veel mensen een hoop goed. Alleen het "ouderwetse" scherm met onder- en bovenkin hè? ;)
antw: Hoe de iPhone SE diepte kan zien met één lens
29 april 2020 - 19:24    reactie #2
geplaatst door: Jurriaan
Halide weet dus meer uit ML te halen dan Apple zelf? En dat vind Apple prima? Ik bedoel iOS is of was een gesloten ecosysteem.
MBA '20 M1| SE1 & 2 iOS 15/17 | Mini6 iPadOS 17 | ATV 4K MKI  TVOS17|
antw: Hoe de iPhone SE diepte kan zien met één lens
3 mei 2020 - 16:50    reactie #3
geplaatst door: MacGB
Ben nu een paar dagen in het bezit van zo'n prachtige SE2. Wat ik ontdek is, dat als je de portret modus activeert en je fotografeert geen persoon, de camera weliswaar meldt dat er geen gezicht/portret gevonden kan worden, maar dat je wel de diafragma waarde kunt instellen. Je kunt in deze modus niet inzoomen, maar wanneer je in de "macro" stand gaat fotograferen, kort op het onderwerp dus, is de "blur" standaard al wel aanwezig, ga je naar de grootste lensopening (f 1,8) dan is het resultaat best acceptabel.
Wonderlijk niet  ?
@ Juriaan, het gebeurt wel vaker dat app's meer uit IOS weet te halen, denk aan de foto-editing programma's zoals RAW Power, en Affinity voor IOS en uiteraard de camera-app's waarmee je in RAW kunt fotograferen met je iPhone.
Ontdek dan ook nog dat de beeld-stabilisatie bij filmen prima werk verricht.
Al met al ben ik  erg blij met deze budget-phone :smile: