[24-Tage-im-Dezember] VideoMic Pro+ – 03/24
„Why You Should Ditch Your Laptop For iPad Pro”

There used to be limitations with what you could do on an iPad — but those limitations are melting away, the last vestige being iOS developers looking longingly at a better. These are the people you hear from most, because they are the most likely to write a blog about it, while the rest of the world just switches to an iPad without making a thing out of it (burn).
Provokation einmal umgedreht. (Speziell) die Überschrift springt natürlich dann ins Gesicht, wenn man sich der Frage verweigert: „What‘s a computer?”
Zugegeben: Die Diskussion ist alt. Trotzdem werde ich nicht müde den besseren Computer für die meisten Leute (!) zu empfehlen (ohne gleichzeitig den noch langen Weg von iPadOS zu verschweigen).
Ein Teil meiner persönlichen Motivation stammt (bestimmt) von der naserümpfenden Bezeichnung „Netflix-Maschine”. Apples Tablets waren genau das nie. Auf der anderen Seite passiert mit diesen Computern einfach mehr: Mehr Software, mehr Möglichkeiten und mehr Fortschritt im Betriebssystem.
Für mich persönlich heißt das: Ich kaufe weiterhin (auch) Macs. Mittlerweile sind es jedoch Desktop-Macs; für unterwegs bin ich mit iPhone und iPad hinreichend versorgt (womit die Überschrift des verlinkten Artikels zufällig sehr gut passt).
[24-Tage-im-Dezember] SmallRig Mobile Phone Cage – 02/24
„The Coming Supremacy of AR“

It’s easy to think of AR as just adding a display in front of your face. That’s probably how it will start, and that may have some value in its own right. But if AR is going to replace the smartphone, displaying information in any way similar to a smartphone or smart watch of today would only be an evolutionary link in the chain. A stepping stone.
Where AR has the potential to change everything is the ability not to be “in your face”, but to blend into the world around you. The capability to seamlessly augment your vision is so powerful that if Apple – or anybody else – ever pulls it off, it will upend how we interact with technology as much or more as the smartphone ever did.
Ich liebe den Optimismus in diesem Artikel.
[24-Tage-im-Dezember] Apple AirPods Pro – 01/24
#182 – Ulysses in der täglichen Praxis
(Wirklich) jeder braucht eine gute Textverarbeitung. Ulysses hatte ich (deshalb) bereits in Episode #067 ins Rampenlicht gerückt.
Heute greife ich die Software für iOS und macOS mit einer Handvoll praktischen Hinweisen noch einmal auf. Diese Folge richtet sich sowohl an jeden, der noch eine gute Textverarbeitung sucht, aber auch an diejenigen, die bereits mit Ulysses tippen.
Hier das Intro zur sechseinhalbminütigen Episode:
iPhoneBlog #one kann man abonnieren. Als Abonnent bekommt man jede Woche ein neues Video, den Zugriff auf alle schon veröffentlichten Episoden und die Einladung zur Diskussion in einem privaten Slack-Kanal. iPhoneBlog #one ist ausschließlich von Lesern und Leserinnen finanziert und unterstützt direkt das iPhoneBlog.
Alle Infos und die Möglichkeit dabei zu sein, findet ihr unter iPhoneBlog.one.
Zwei Anmerkungen zum „Smart Battery Case“
Die Videos von Sam Sheffer und Rene Ritchie lieferten die besten Ersteindrücke zum (eigentlich bekannten) „Smart Battery Case“. Zwei (oder drei) Anmerkungen daraus möchte ich hervorheben:
- Die neue Kamerataste öffnet Apples Foto-App – egal ob sich das iPhone im Ruhezustand befindet, ihr gerade über den Homescreen wischt oder euch in einer Anwendung befindet. Die eigene Kamerataste ist im Gegensatz zum Standby-Button und den Lautstärkeknöpfen eingelassen und reagiert erst auf einen verlängerten Druck, damit man diese Taste nicht unbeabsichtigt betätigt.
- Die Kamerataste knipst keine Fotos in Drittanbieter-Apps wie Halide. Trotz der Kamerataste ist es weiterhin möglich den Kamera-Auslöser über den Lautstärkeknopf auszulösen.
- Die Einschränkung der QuickTake-Videos, die wirklich jeder kennen sollte (!), hatte ich bereits beschrieben. Obendrein ist es nicht möglich während einer solchen Videoaufnahme den digitalen Auslöser auf dem Bildschirm – über eine Wischgeste nach rechts – festzustellen.
Metapho identifiziert „Deep Fusion”-Fotos

Metapho 3.4.2 indicates Deep Fusion and Night Mode under the Image Information section. How?
For Deep Fusion, it’s flash EXIF metadata field. Ever since iPhone 4 introduced that tiny camera flash, normal photo taken with back camera without flash firing has integer value 16 in the field. A deeply fused photo has 32 — means no flash function, so Metahpo can read this field and compare iPhone model number to determine it’s Deep Fusion or not. I hope that Deep Fusion writes 32 to the flash field, is well intended thing and remains consistent.
Night Mode is more straightforward. It has couple of dedicated EXIF tags indicating the number of composite image used, and min/max/sum of multiple exposure times. Since a single Shutter Speed time loses its meaning for Night Mode’s compositing of multiple images, I’ve replaced Shutter Speed field under the Camera Information section for these fields.
Metapho (universal; Laden) bleibt das Metadaten-Tool für Fotos auf iOS und iPadOS.
(Danke, @FalkoMD)


