In den heutigen Telefonkriegen ist die Kamera das einzige verbliebene Schlachtfeld

0

Der Mobile World Congress 2018 war für die weltgrößte Fachmesse der Mobilfunkbranche nicht gerade mit neuen Smartphone-Ankündigungen verbunden. Huawei und HTC hielten sich beide mit der Ankündigung neuer Telefone zurück, während LG sich dafür entschied, die geringsten Upgrades für sein sechs Monate altes V30-Flaggschiff aufzudecken.

Die mit Abstand größten Markteinführungen der MWC 2018 waren die Samsung Galaxy S9 und S9+, aber selbst das enthielt nicht viel, was wir nicht schon in der Galaxy S8 gesehen hatten. Der S9 hat genau den gleichen 5,8-Zoll Quad HD Super AMOLED Bildschirm und 3.000mAh Akku, den wir bereits im letzten Jahr in der Galaxy S8 gesehen hatten. Auch der Prozessor hatte nur die kleinsten Upgrades, während die Designänderungen kaum mehr waren, als den Fingerabdruckscanner einen halben Zoll nach links zu verschieben, um unter der Kamera zu sitzen.

Zurück im Jahr 2016, LG und Google-Experimente mit modularen Handys angedeutet, dass die Zukunft lag in mehr als nur Rasieren von kostbaren Millimetern Lünette, aber schlechte Verkaufszahlen für das LG G5 und Verschiebungen in Google’s Hardware-Strategie bald ein Ende zu setzen, dass der Traum. Stattdessen hat sich die Branche um eine bekannte Idee des perfekten Smartphone-Designs zusammengeschlossen: große Bildschirme und kleine Lünetten. Wie Rick Osterloh, Senior Vice President of Hardware bei Google, im Oktober sagte: „Das Spielfeld für Hardwarekomponenten ebnet sich ein“. Die Hersteller rennen um die Parität untereinander, um wirklich spannende Features einzuführen.

Einer der wenigen Bereiche, in denen die Innovation nicht nachlässt, sind die Smartphone-Kameras. Mit der Veröffentlichung der Galaxy S9 hat Samsung vielleicht endlich die Formel für detaillierte Low-Light-Fotografie geknackt. Durch die Kombination von zwei verschiedenen Blendeneinstellungen in einer Ein-Objektiv-Kamera kann der 12-Megapixel-Doppelpixelsensor der S9 bei schlechten Lichtverhältnissen mehr Licht aufnehmen. Die Kamera nimmt bei jedem Drücken des Auslösers 12 separate Aufnahmen auf und kombiniert diese automatisch in der Postproduktion, um die Hintergrundfuzz im Vergleich zum S8 um 30 Prozent zu reduzieren.

Und der Code hinter den Kameras wird genauso wichtig wie die Objektive und Sensoren, aus denen die Geräte selbst bestehen. Im Februar 2018 öffnete Google seinen Visual Core Chipsatz in seinem Pixel 2 Flaggschiff Smartphone, so dass es mit Anwendungen von Drittanbietern wie Snapchat, WhatsApp, Instagram und Facebook arbeitete. Vorher sahen die Fotos, die über diese Apps aufgenommen wurden, schlimmer aus, weil sie nicht auf den zusätzlichen Nachbearbeitungsaufwand zugreifen konnten, den Googles dedizierter visueller Chipsatz mit acht Kernen mit sich bringt. Jetzt ist er eingeschaltet, der Chipsatz aktiviert HDR+ und erhöht die Zoomqualität von Fotos, die in jeder Anwendung aufgenommen wurden, die über die Visual Core API angeschlossen ist.

Aber die Vorteile einer besseren Software gehen weit über schärfere Fotos hinaus. Die Google Translate App ermöglicht es Menschen, fremdsprachigen Text über die Smartphone-Kamera zu übersetzen, eine Funktion, die Samsung jetzt in Bixby Vision integriert hat – der Versuch des südkoreanischen Unternehmens, mehr KI in seine Kamera-App zu bringen. Neben der Live-Kamera-Übersetzung nutzt Bixby Vision auch die Bilderkennung, um einen Teller mit Lebensmitteln zu erkennen und abzuschätzen, wie viele Kalorien darin enthalten sind. Während diese Art von Software- und Hardware-Kombination noch in den Kinderschuhen steckt, ist sie ein Hinweis darauf, was unsere Kameras alles können, wenn man sie erst einmal mit leistungsstarken Softwarefunktionen ausgestattet hat.

Augmented Reality ist ein weiterer Bereich der kamerazentrierten Smartphone-Innovation, der noch in den Kinderschuhen steckt. Unter der Führung von Apple mit AR zu ermöglichen, dass jeder die poop emoji, die S9 können Sie jetzt verwenden AR, um sich in eine leicht erschreckende emoji Version von sich selbst. Samsung sagt, dass dies alles Teil der Entwicklung von Software „für die Art und Weise, wie wir heute kommunizieren“ ist, aber in Wirklichkeit ist diese etwas seltsame Funktion eine Möglichkeit, die wachsenden AR-Fähigkeiten des Unternehmens zu demonstrieren.

Am Montag ging Google mit seinem ersten offiziellen Start von ARCore an die Öffentlichkeit, was es Android-Entwicklern ermöglicht, AR-Apps zum ersten Mal im Google Play Store zu veröffentlichen und Apple zu signalisieren, dass Google auch glaubt, dass AR in Zukunft ein großer Teil unserer Interaktion mit unseren Handys werden wird.

Während sich die Form und Haptik unserer Geräte in den letzten etwa einem halben Jahrzehnt nicht wesentlich verändert hat, wird die wachsende Bedeutung der künstlichen Intelligenz und der erweiterten Realität in unseren Handys dazu führen, dass sich die Hersteller nicht leisten können, faul zu werden, wenn es um neue Kameratechnologien geht. Wenn AR so groß wird, wie von Apple und Google erwartet, dann wird kein Hersteller hinterherhinken wollen, wenn es um die Kameras und die Software geht, die in der Lage sind, diese Technologie zu nutzen.

Das könnte dir auch gefallen

Hinterlasse einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.

Translate