iOS 26 erkennt ob euer Kameraobjektiv verschmutzt ist
Zu den zahlreichen kleinen Neuerungen, auf die Apple im Rahmen der Ankündigung von iOS 26 nicht näher eingegangen ist, gehört auch eine Funktion namens „Lens Cleaning Hints“. Apple greift dabei auf Funktionen aus dem Bereich maschinelles Lernen zurück, um Verschmutzungen auf der Kameralinse zu erkennen. Die Software kann den Benutzer dann auf diesen Umstand hinweisen […] Der Beitrag iOS 26 erkennt ob euer Kameraobjektiv verschmutzt ist erschien zuerst auf iphone-ticker.de.

Zu den zahlreichen kleinen Neuerungen, auf die Apple im Rahmen der Ankündigung von iOS 26 nicht näher eingegangen ist, gehört auch eine Funktion namens „Lens Cleaning Hints“.
Apple greift dabei auf Funktionen aus dem Bereich maschinelles Lernen zurück, um Verschmutzungen auf der Kameralinse zu erkennen. Die Software kann den Benutzer dann auf diesen Umstand hinweisen und ist dabei auch in der Lage, den Grad der Verschmutzung der Kamera auf einer Skala von 0,1 bis 1 zu bestimmen.
Beispielbilder: Apple
Die Analyse erfolgt unter Verwendung von maschinellen Lernfunktionen lokal auf dem iPhone. Dabei werden im Hintergrund mehrere vom Nutzer aufgenommene Bilder verglichen, um beispielsweise Schlieren auf der Linse zu erkennen, die durch eine ungewollte Berührung mit den Fingern entstanden sind.
Meldung ab bestimmtem Schwellwert
Die Möglichkeit zur Erkennung von Verschmutzungen auf der Kameralinse wurde in Apples Vision-Framework integriert und steht auf diesem Weg allen Entwicklern zur Verfügung, die ihre Apps um eine solche Funktion erweitern wollen.
Beispielsweise kann eine Kamera-App ihren Nutzer auf dieser Basis dazu anweisen, die Objektive zu reinigen, bevor man damit neue Bilder aufnimmt. Dabei entscheidet der Entwickler nicht nur ob, sondern auch wann eine solche Meldung angezeigt wird. Der Hinweis lässt sich mit einem bestimmten Grad der Verschmutzung verbinden. Dabei muss sich der Entwickler dafür entscheiden, ob er lieber einen sehr frühen Hinweis anzeigen will und damit verbunden die Gefahr von Falschmeldungen akzeptiert oder den Nutzer erst dann warnen will, wenn die Objektive definitiv verschmutzt und die Bildqualität bereits massiv nachgelassen hat.
Apps können auch Bildästhetik und -qualität abfragen
Das Vision-Framework von Apple steht Entwicklern seit mehreren Jahren zur Verfügung und bietet die Möglichkeit, auf interessante Funktionen im Zusammenhang mit der Fotos-App und der Nutzung der Kamera zuzugreifen. Beispielsweise kann man damit auch vorhandene Bilder auf ihre Ästhetik oder die Qualität von darauf abgebildeten Gesichtern untersuchen, was sich Anwendungen wie PhotoSort zunutze machen.
Der Beitrag iOS 26 erkennt ob euer Kameraobjektiv verschmutzt ist erschien zuerst auf iphone-ticker.de.