MKBHD blinde smartphone test

‘Apple’s Smart HDR maakt iPhone-foto’s onnatuurlijk’

Overdreven nabewerking door de iPhone zorgt ervoor dat de foto's die je maakt er onnatuurlijk uit zien. Dat beweert youtuber MKBHD, maar ook anderen hebben het ervaren: Apple's Smart HDR-functie neemt je foto's veel te rigoureus onderhanden - en je kunt het niet uitschakelen.

Overdreven effecten door Smart HDR

In theorie is Smart HDR op de iPhone een prima oplossing: foto’s worden automatisch net iets mooier gemaakt door informatie van meerdere lenzen en meerdere opnames te combineren. Bij de camera in de iPhone 14 Pro wordt zelfs de informatie van een 48-megapixelcamera gebruikt om er een zo mooi mogelijke 12-megapixelfoto van te maken. Maar al die nabewerking heeft ook een nadeel: de foto kan er nogal fake uit gaan zien. Dat beweert youtuber Marques Brownlee, beter bekend als MKBHD. En hij is niet de enige.


MKBHD voerde eind vorig jaar een blinde test om te kijken welke smartphone de beste foto’s maakt. De Google Pixel 6A won daarbij de eerste prijs en de Pixel 7 Pro kwam als tweede uit de bus. Apple scoorde lager. Het viel al eerder op dat de nabewerking van de iPhone-camera overdreven resultaten kan geven en nu heeft MKBHD in een nieuwe video uitgelegd waarom de foto’s die je met de iPhone 14 Pro maakt er soms zo onnatuurlijk uit zien.

Klik om inhoud van YouTube te tonen.
Learn more in YouTube’s privacy policy.

Voorheen stond Samsung erom bekend dat ze onnatuurlijke foto’s maken, passend bij de Aziatische voorkeur voor flatteuze foto’s en extreme verzadiging. Apple ruïneert de foto’s ook, maar doet dat op een heel andere manier. Donkere gedeeltes worden extra opgelicht in een poging om meer detail te laten zien. Bij iemand met een donkere huidskleur kan dat een overdreven effect geven, waardoor iemand er juist lelijker uit ziet op een foto. Apple probeert de schaduwen op te lichten, vooral op het gezicht, met als gevolg dat het er kunstmatig uit ziet. De huidtint klopt ook niet meer met wat hij zelf als natuurlijk ervaart.

iPhone camera vergelijking selfie

Bij gunstige omstandigheden zoals een heldere lucht of een persoon die bij daglicht wordt belicht en een duidelijke achtergrond heeft, ziet het er normaal uit. Maar als er verschillende kleuren en texturen te zien zijn, gaat de slimme HDR-functie er niet zo slim mee om. Apple voegt elk jaar nieuwe software-functies toe om de foto’s die je maakt met nog meer stappen na te bewerken. Maar dat maakt de foto’s niet beter. Sebastiaan de With, de man achter de populaire camera-app Halide, heeft eerder ook al gewezen op de tekortkomingen van Smart HDR. Bij tegenlicht probeert de iPhone de mensen op de foto op te lichten, waardoor ze er onnatuurlijk en gebleekt uit zien.

Klik om inhoud van Twitter te tonen.
Learn more in Twitter’s privacy policy.

Dit kun je er nu al aan doen
Smart HDR snijdt de menselijke figuren uit de foto en licht ze vervolgens op. Apple zou dit kunnen oplossen door een schakelaar toe te voegen, zodat je Smart HDR kunt uitschakelen. Een andere optie is om een RAW-foto te maken met een app zoals Halide, maar dan krijg je een veel te groot fotobestand en moet je zelf nog aan de slag gaan met nabewerking. Dat komt er vaak niet van. Gebruik je Apple’s eigen ProRaw-foto’s, dan is het goed om te weten dat die achteraf ook nog worden nabewerkt. De meest simpele oplossing is om een Live Photo te maken, maar ook dat heeft weer nadelen. Die bewegende foto’s nemen meer ruimte in op je iPhone. Nee, een schakelaar voor Smart HDR, dát zou pas handig zijn. Misschien in iOS 17?

Bekijk ook

Wat is Smart HDR op de iPhone en hoe gebruik je het?

Ontdek hoe Smart HDR werkt, de slimme HDR-functie op recente iPhones. Met Smart HDR wordt je foto nog mooier, met meer detail bij schaduwen en en betere balans tussen lichte en donkere delen van een foto. Zo werkt het.

Reacties: 16 reacties

Reacties zijn gesloten voor dit artikel.