Test: Apple iPhone Xs (Max)
Die Kameras
Natürlich ist die Kamera das wichtigste Alleinstellungsmerkmal der iPhones. Gemäss Apple ist das iPhone die erfolgreichste Kamera der Welt, und diese vollmundige Behauptung lässt sich sogar einfach beweisen: Auf «Flickr», einer der grössten Foto-Plattformen, werden die ersten fünf Plätze ausnahmslos von iPhones eigenommen – und zwar nicht nur bei den Smartphones, sondern über alle Kameras hinweg. Das macht Apple zum erfolgreichsten Kamerahersteller der Welt – und das verpflichtet:
Kaum Unterschiede bei der Optik
Bei den Kameras der iPhone Xs («Max») spielen sich die Unterschiede zum Vorgänger sowohl auf der Software- als auch auf der Hardware-Ebene ab.
Objektive. Alle Kameras entsprechen in weiten Teilen jenen im iPhone X. Das Weitwinkel ist ein wenig weiter geworden; umgerechnet auf Kleinbild beträgt die Brennweite jetzt 26 Millimeter statt 28 Millimeter. Die zweite Kamera verharrt bei der Normalbrennweite von 51 Millimetern.
Sensor. Allerdings ist der Sensor und damit die Pixelgrösse angewachsen, nämlich von 1,22 µm auf 1,4 µm, was der Bildqualität bei schwachem Licht zum Vorteil gereicht. Beide Objektive sind optisch stabilisiert, was nicht nur schärfere Fotos im Dämmerlicht, sondern auch massgeblich beruhigte Freihandvideos ermöglicht.
So weit, so bekannt. Die wirklichen Verbesserungen spielen sich auf Software-Ebene ab.
Schon wieder: die Neural Engine
Die Signalverarbeitung von Apple gehörte schon immer zu den herausragenden Eigenschaften des iPhones: Sie greift unmittelbar nach der Aufnahme ein, zerlegt das Bild in Segmente und optimiert diese einzeln, erstellt HDR-Fotos und mehr – und das alles mit zehn Bildern pro Sekunde und in unlimitierter Menge.
Die Neural Engine beeinflusst die Signalverarbeitung massgeblich und greift überall dort ein, wo es kniffelig wird – etwa beim Porträt-Effekt, wenn das Gesicht vom Hintergrund isoliert werden soll. Oder bei der verbesserten Gesichtserkennung oder bei der Bewältigung extremer Kontraste oder bei der Optimierung der Tonwerte. Und so weiter.
Smart HDR
Zu den besonderen Neuerungen gehört die Funktion «Smart HDR». Sie puffert bei jeder Aufnahme vier Bilder mit unterschiedlicher Belichtung – und das in so kurzen Abständen, dass selbst bei Action-Aufnahmen keine Schlieren («Ghosting») zu sehen sind, auch wenn sich das Motiv schnell bewegt. Werden die Bilder gebraucht, umso besser; wenn nicht, wird der Inhalt des Puffers verworfen.
Unter dem Strich heisst das, dass Sie die Smart-HDR-Funktion immer nutzen können und nie einen Gedanken darüber verlieren müssen – stets in der Gewissheit, dass das iPhone Xs extreme Lichtsituationen nicht nur meistert, sondern trotz HDR natürlich wirken lässt. In der ersten Zeit werden Sie es wahrscheinlich nicht lassen können, absichtlich den extremsten Kontrasten nachzurennen:
HDR-Videos
Es kommt noch besser: Sogar 4K-Videos profitieren von der Smart-HDR-Funktion, und zwar automatisch. Die maximale Aufnahmequalität liegt bei der 4K-Auflösung mit enormen 60 fps. Wird die Bildrate in den Einstellungen auf 30 fps reduziert, kann das iPhone Xs im Hintergrund weitere 30 fps mit unterschiedlicher Belichtung aufnehmen, um den Kontrastumfang zu optimieren. All das geschieht vollautomatisch, in Echtzeit und ohne Zutun des Benutzers. Die Videos werden einfach besser.
Endlich Stereo
Apropos Videos: Diese werden jetzt (endlich!) in Stereo aufgezeichnet. Vier Mikrofone sorgen dabei für eine beeindruckend realistische Balance.
Zero Shutter Lag
Als «Shutter Lag» bezeichnet man die Verzögerung zwischen dem Drücken des Auslösers und der Aufnahme. Diese Zeit wird normalweise von der Kamera benötigt, um die endgültige Belichtung zu messen oder zu fokussieren. Das iPhone Xs löst hingegen sofort aus, wenn Sie den Auslöser drücken.
Bessere Porträts
Vor allem die Porträts profitieren von der tatkräftigen Unterstützung der Neural Engine. Mit jeder Aufnahme erstellt die TrueDepth-Kamera eine dreidimensionale Tiefenmaske, die für die Berechnung der Unschärfe im Hintergrund dient. Neu kann diese Tiefenmaske auch nachträglich in der mitgelieferten Fotos-App bearbeitet werden, indem die imaginäre Blende zwischen ƒ/1,4 und ƒ/16 reguliert wird.
Auffallend ist dabei, wie viel besser die Segmentierung funktioniert, besonders bei der Trennung einzelner Haare vom Hintergrund. Die Tiefenmaske wurde in diesem Fall von der Foto-App Halide sichtbar gemacht:
Die Algorithmen von Apple simulieren dabei das «Bokeh» (also die Art und Qualität der Unschärfe) deutlich anders als die Mitbewerber. Während diese einfach das Motiv freistellen und einen Unschärfe-Filter auf den Hintergrund klatschen, berücksichtigt das iPhone die optischen Eigenschaften eines echten Objektivs und passt die Unschärfe entsprechend an, wie weiter oben an den Bildern mit ƒ/1,4 und ƒ/3,5 deutlich zu sehen ist.
Und andere Kamera-Apps?
Bei der Übergabe des Testgeräts hatte ich die Chance, mit einem Apple-Mitarbeiter eine Frage zu klären, die mir schon lange zu beissen gab: Sollte für einen optimalen Porträt-Effekt die Apple-eigene Kamera verwendet werden oder funktioniert eine beliebige App von einem Drittanbieter genauso gut?
Die Antwort liess an Deutlichkeit nichts zu wünschen übrig: Jede Kamera-App erhält vom System das Bild und die zugehörige Tiefenkarte. Alle kämpfen mit gleich langen Spiessen. Was mit dieser Tiefenkarte geschieht, hängt einzig von der App ab. Die Resultate der künstlichen Unschärfe können also besser oder schlechter sein als jene, die aus der Apple-App kommen. Wenn Sie die besten Resultate wollen, müssen Sie die infrage kommenden Apps akribisch testen.