iPhoneBlog.de iPhoneBlog.de
van Alex Olma
14. Juni 2021 – 23:26 Uhr

Apple-Computer in ihrer Umgebung wollen sich verbinden

Tippt ihr eine Textnachricht auf watchOS 8, schickt die Uhr einen Push auf euer iPhone oder iPad, um die Texteingabe dort auszuführen – so wie es auch der Apple TV macht.

Das Schlagwort Ökosystem werfen wir für Apples Produkte seit Jahren durch den Raum und sprechen dabei allem voran über Software – von AirDrop über AirPlay bis Continuity.

Zuletzt fällt jedoch auf, wie sehr Apple die tatsächliche Anwesenheit ihrer Hardware als Alleinstellungsmerkmal ausspielt und seine Geräte zunehmend verdrahtet.

„Universal Control“ lässt euch beispielsweise nicht nur kabellos mehrere Macs und iPads mit einer einzigen Tastatur-Trackpad-Kombo steuern, sondern auch Dateien zwischen den separaten Geräten austauschen. Das ist eine logische Weiterentwicklung von „Universal Clipboard“.

Craig Federighi sprach im Kontext von „Universal Control“ über all die Puzzlestücke, die für dieses Feature über mehrere Jahre in Position gerückt wurden.

macOS Monterey benötigt keine Dritt-Software mehr um im eigenen Netzwerk kabellos Bild und Ton zu empfangen. Sprich: Der Mac gibt sich jetzt selbst als AirPlay-Empfänger aus.

iPads und Macs ohne eigene Netzwerkverbindung klemmen sich von selbst an den „Persönlichen Hotspot“ eures Telefons in direkter Nähe.

Ein entsperrtes iPhone aktiviert die Apple Watch, die ihr euch gerade ums Handgelenk schnallt. Diese Uhr aktiviert wiederum das iPhone, wenn man eine Maske trägt. Es ist außerdem die Uhr, die den Mac oder 1Password entsperrt, respektive euer Administratorpasswort eingibt.

Das „Find My“-Netzwerk findet demnächst AirPods Pro und AirPods Max in Bluetooth-Reichweite. Selbst ausgeschaltete oder zurückgesetzte iPhones lassen sich nun lokalisieren und AirTags warnen, wenn ihr sie irgendwo vergesst.

Die nächste Apple Watch bekommt (natürlich) einen U1-Chip und wird der Schlüssel fürs Eigenheim oder Hotelzimmer. Schon jetzt schubst man über den Ultrabreitband-Chip seine Songs durch die räumliche Annäherung auf den HomePod mini.

Diese hyper-lokalen Features bekämpfen für Apple eine echte Gefahr: den Chromebook-Lifestyle. Es ist die Idee von einem dummen Display, bei dem alle Daten und jegliche Rechenleistung im Netz liegt.

Eine solche Computerwelt lässt sich bereits bei Videospielen vorkosten: Xbox-Cloud-Gaming oder Google Stadia sind der Versuch unabhängig von der lokalen Hardware zu unterhalten.

Und wenn nur noch ein beliebiger Bildschirm und eine schnelle Netzverbindung zählen, verlieren Apples aktuelle Produkte ihre Alleinstellungsmerkmale. Sie wären plötzlich ein „dummes“ beziehungsweise austauschbares Display.

Einen Gegenpol dazu schafft Hardware, die in unmittelbarer Nähe zueinander und miteinander funktioniert.

13. Juni 2021 – 14:25 Uhr

watchOS 8 mit Always-On API

Mit „Guided by the arm“ – für die Series 4 – spielte Apple in Japan bereits eine ähnliche Werbung aus.

Workouts bleiben unbestritten ein zentrales Feature der Uhr und watchOS 8 lernt in diesem Jahr nicht nur neue Trainingsarten. Entwickler:innen bekommen erstmals Zugriff auf eine neue Schnittstelle für das Always-On-Display (ab Apple Watch Series 5). Vorbei sind dann die Zeiten, in denen man während einer sportlichen Aktivität nicht seine Trainingswerte lesen konnte.

The Always-On Display is supported on Apple Watch Series 5 and 6. In watchOS 7, the always-on state showed your app’s UI blurred with the time overlaid.

When you rebuild your app with the watchOS 8 SDK, your app’s UI will now be shown in a dimmed state instead and is immediately interactive if someone taps the UI.

In the always-on state, the system automatically reduces the overall brightness of the display while keeping it bright enough for someone to see.

What‘s new in watchOS 8

Auch abseits der körperlichen Betätigung bleiben eigene von Apples Watch-Apps dauerhaft auf dem Zifferblatt einsehbar – darunter Karten, Podcasts, Sprachmemos und Timer.

12. Juni 2021 – 8:49 Uhr

iOS 15: Diktieren ohne Limit

With on-device dictation, you can dictate text of any length without a timeout (previously limited to 60 seconds).

Apple.com/Preview

David Sparks hat’s ausprobiert.

Für Deutsch funktioniert die neue Diktierfunktion in der ersten Beta von iOS 15 noch nicht, ist aber versprochen. Vorausgesetzt wird dafür mindestens ein iPhone XS.

Auf Englisch konnte ich bereits für viele Minuten ins Mikrofon sprechen und direkt der Transkription folgen. Das aufgehobene Zeitlimit wäre dabei jedoch nur halb so hilfreich, wenn nicht auch Pausen während des Diktats möglich wären. Deshalb gönnt man sich nun auch Gedankenpausen, ohne dass sich das Mikrofon von selbst abschaltet.

11. Juni 2021 – 15:01 Uhr

Lossless Audio vs. Dolby Atmos

Mein Fazit nach vier Tagen ist recht einfach: Lossless aus, 3D-Audio ein.

Die Lossless-Wiedergabe konnte ich mit dem Impacto Essential und einem Amiron Home-Kopfhörer ausprobieren. Am Mac, iPhone und iPad signalisierte der DAC über seine integrierte LED-Leuchte die Ausgabe von Hi-Res-Audio.

Apple Music rückt diese Informationen nicht raus. Das Label „Lossless“ beziehungsweise „Hi-Res Lossless“ in der Musik-App gibt lediglich an, in welcher Qualität die Songs empfangen werden – nicht in welcher Qualität sie an die Kopfhörer wandern.

Anders als bei Dolby Atmos: Schaltet ihr über das Kontrollzentrum das 3D-Audio-Feature aus, verschwindet auch das Label im Song-Screen.

Randnotiz: Wenn jeder Song aus einem Album in Dolby Atmos vorliegt, erscheint eine generelle Kennzeichnung in der Ansicht für dieses Album.

Während die verlustfreie Wiedergabe „lediglich“ Musikstücke in höherer Auflösung ausgibt (stark vereinfacht ausgedrückt), müssen Songs für Dolby Atmos neu gemischt werden. Aus diesem Grund steht der Dolby-Atmos-Musikkatalog in Apple Music am ersten Tag komplett in Lossless zur Verfügung – einige Alben sogar in 24-bit/192 kHz.

Im Gegensatz dazu sind nur „einige tausend Songs” in Spatial Audio zu hören. Das kann irritieren, wenn ihr eine Wiedergabeliste mit unterschiedlich abgemischten Songs anhört.

Apple hat eine klare Meinung zu Lossless Audio:

Auch wenn AAC von verlustfreiem Audio praktisch nicht zu unterscheiden ist, bieten wir Apple Music-Abonnenten die Option, auf Musik mit verlustfreier Audiokomprimierung zuzugreifen.

Support.Apple.com

Auch Eddy Cue positioniert sich unmissverständlich:

For the difference of lossless, our ears aren’t that good. Yeah, there are a set of people who have these incredible ears, and that’s one piece of it. There’s the other piece of it, which is do you have the level of equipment that can really tell the difference? It requires very, very high-quality stereo equipment. What you find is, for somebody who’s a true, for example classical connoisseur, they may be able to tell the difference in lossless. I can’t tell personally — I do the blind tests all the time with the team — I can’t tell. That’s a problem. That’s not going to work because that’s a marketing play, not a true customer play. Dolby Atmos, Spatial Audio? You can tell. I can tell, everyone can tell. That’s going to make all the difference in the world.

Billboard.com

Mein Blindtest, den ich zusätzlich über den Scarlett 2i2 am Mac ausführte, konnte mir ebenso keinen Unterschied auf die Ohren zaubern. Für mich waren weder die verschiedenen Stufen von Lossless zu unterscheiden (24-Bit / 48 kHz oder 24-Bit / 192 kHz), noch die Differenzen zur Standard-Streaming-Qualität (AAC 256 KB/s).

Ich habe außerdem den Kopfhörerbuchsen-Adapter (Klinke-auf-Lightning respektive Klinke-auf-USB-C) eingesteckt, der ein verlustfreies Audio mit bis zu 24 Bit/48 kHz ermöglicht. Aber auch hier versagten meine Ohren.

Dagegen waren die Songs in Dolby Atmos nicht nur augenblicklich als solche zu erkennen, sondern man stand tatsächlich in der Mitte der Musik – von Sublime bis Norah Jones. Der Effekt ist für mich jedoch wesentlich deutlicher auf den AirPods Max nachzuvollziehen als auf den AirPods Pro.

Apropos Musik-Mitte: In der iOS-15-Beta testet Apple bereits ein Head-Tracking für Musik. Dabei wechselt die Musikwiedergabe zwischen den Ohrmuscheln entsprechend eurer Positionierung zum iPhone – ähnlich wie Spatial Audio das für Videos macht.

iOS 14.6 verfolgt die Position eurer Kopfhörer zum Abspielgerät noch nicht, und mir ist auch noch nicht verständlich, warum man das für Musik – der man nicht dauerhaft zuschaut – überhaupt möchte.

We are excited to announce that spatial audio with dynamic head tracking is coming to Apple Music in the fall. Dynamic head tracking creates an even more immersive experience for spatial audio. It brings music to life by delivering sound that dynamically adjusts as you turn your head. And you can experience spatial audio with dynamic head tracking on AirPods Pro and AirPods Max with a compatible iPhone or iPad.

Support.Apple.com

Apropos Zuschauen: 3D-Audio befindet sich auch für den Apple TV schon in den Betas. Und es macht Freude, obwohl die technische Umsetzung eine schlicht verzögerte Erfassung der Kopfhörer-Position zu sein scheint.

When you sit down to watch a movie or TV show, the included head tracking feature will lock in after it detects you’ve been looking in the same direction for a while. Once you get up to walk around, it will reactivate.

Engadget

Darüber hinaus zeigt Apple in den ersten Vorabversionen seines OS-Updates ein Feature, das sie „Spatialize Stereo“ nennen. Es ist ein simulierter 3D-Audio-Effekt für alle Inhalte, die keine Dolby-Abmischung ausspielen.

Meine Videos lassen sich damit bereits anschauen. Wie gut das aber ist, bleibt abzuwarten. Im Moment erfreut man sich an einem leicht halligeren Sound, der zwischen den zwei Ohrmuscheln hin- und herspringt.

Ich führe all diese Funktionen hier auf, um zu zeigen, wie investiert Apple in Surround-Audio ist. Das bedeutet gleichzeitig: Lossless Audio ist für Apple keine Priorität. Entsprechend sollte man ihre Aussagen dazu werten.

Und trotzdem ändert das mein Empfinden gegenüber der verlustfreien Wiedergabe von Musik nicht: Lossless ist für mich nicht von der gewohnten Qualität zu unterscheiden, während eine gut gemixte Mehrkanalwiedergabe viel Spaß bereitet.

10. Juni 2021 – 15:41 Uhr

#259 – meine macOS-Apps (Part 2)

Doppelschlag.

Der zweite Teil meiner kleinen Software-Runde durch macOS führt abermals zwei Dutzend Programme auf, die ich regelmäßig verwende (weil sie mir in der einen oder anderen Form auf dem iPad fehlen).

Hier das Intro zur fünfeinhalbminütigen Episode:


iPhoneBlog #one kann man abonnieren. Alle Abonnent:innen bekommen jede Woche ein neues „Gewusst-wie”-Video, den Zugriff auf alle schon veröffentlichten Episoden und die Einladung zu einer ganz besonderen Community in einem privaten Slack-Kanal.

iPhoneBlog #one ist ausschließlich von Lesern und Leserinnen finanziert und unterstützt direkt das iPhoneBlog.

9. Juni 2021 – 14:35 Uhr

#258 – meine macOS-Apps (Part 1)

Diese Episode schließt inhaltlich an Folge #155 und #156 an. Nach zwei Jahren bin ich abermals in die Untiefe von meinem Programmordner abgestiegen, und habe zwei Dutzend macOS-Anwendungen ausgebuddelt.

Hier das Intro zur sechsminütigen Episode:


iPhoneBlog #one kann man abonnieren. Alle Abonnent:innen bekommen jede Woche ein neues „Gewusst-wie”-Video, den Zugriff auf alle schon veröffentlichten Episoden und die Einladung zu einer ganz besonderen Community in einem privaten Slack-Kanal.

iPhoneBlog #one ist ausschließlich von Lesern und Leserinnen finanziert und unterstützt direkt das iPhoneBlog.

8. Juni 2021 – 10:15 Uhr

Apple Music streamt 3D-Audio und Lossless auf eure Ohren

Apple Music knipste in der letzten Nacht serverseitig Lossless Audio (für den gesamten Katalog) und 3D-Audio mit Dolby Atmos (für einige tausend Songs) an (➝ Einstellungen ➝ Musik).

Mit dieser Wiedergabeliste könnte man „das immersive Audioerlebnis“ starten.

Danke, Mathias!

8. Juni 2021 – 0:47 Uhr

„Livetext“ – ein Augmented-Reality-Feature für die iPhone-Kamera

Livetext nutzt On-Device Intelligenz, um Text in einem Foto zu erkennen und Anwender:innen das Ausführen bestimmter Aktionen zu ermöglichen. So können Nutzer:innen zum Beispiel nach dem Bild eines handgeschriebenen Familienrezepts suchen und es finden oder eine Telefonnummer in einem Schaufenster fotografieren und dort anrufen. Mit der Power der Apple Neural Engine kann die Kamera App auch schnell Text in einem bestimmten Moment erkennen und kopieren, beispielsweise das in einem Café angegebene Wi-Fi Passwort. Mit Visual Look Up können Nutzer:innen mehr über beliebte Kunstwerke und Sehenswürdigkeiten auf der ganzen Welt, Pflanzen und Blumen in der Natur und Tierarten erfahren — und sogar Bücher finden.

Apple.com/iOS-15-Preview

Nochmal langsam.

„Livetext“ erkennt (getippten oder handgeschriebenen) Text auf bereits geknipsten Bildern sowie in der Live-Kameraansicht (ab dem iPhone XS). Obendrein findet eine Spotlight-Suche diese Textstücke auch automatisch in eurer Fotobibliothek.

Apple spendierte diesem (ich möchte behaupten) signifikanten Feature – weil’s ein weiterer Schritt in die AR-Zukunft ist – exakt drei Minuten in seiner zweistündigen Keynote.

Social

Abonnement

iPhoneBlog #one präsentiert wöchentlich neue Videos über App-Store-Apps und einen täglichen Ideenaustausch im privaten Slack-Kanal. Noch nicht dabei? Werde Abonnent.

Du hast schon einen Account? Login.

Archiv