pCloud-Deal zum Valentinstag: „Lifetime“-Cloud-Speicher mit 85%-Rabatt [Sponsor]
pCloud feiert in diesem Jahr sein zehnjähriges Firmenjubiläum. Kein Wunder: Onlinespeicherplatz zum Festpreis mit den höchsten Sicherheits- und Datenschutzstandards bleibt ein Hit!
Cloud-Speicher zum Einmalpreis jetzt günstiger
Statt 570 Euro für pCloud Premium Lifetime (500 GB) zahlt ihr für euren Wolkenspeicher auf Lebenszeit aktuell nur einmal 139 Euro. Der reguläre Preis für pCloud Premium Plus Lifetime (2 TB) beträgt 1140 Euro; bis zum 19. Februar zahlt man jedoch nur 279 Euro.
Und benötigt man einen privaten Medien-Server, bietet pCloud sogar 10 TB auf Lebenszeit an. Zum Valentinstag ist dieses Angebot um 85-Prozent reduziert und kostet einmalig 890 Euro.
Auch „pCloud Encryption“ – die nutzerseitige Verschlüsselung – ist im Preis gesenkt: Statt 575 Euro kostet das Add-on nur einmalig 115 Euro.

Ohne versteckte Zusatzkosten: Bereits 16 Millionen Nutzer:innen verwenden den pfeilschnellen und verschlüsselten Zugriff auf ihre privaten Dateien und Dokumente. Apps gibt es für alle Systeme. Ich benutze die M1-native macOS-Anwendung sowie das sehr gute Web-Interface und die iOS-App, um von unterwegs auf mein Blog-Backup, alle PDF-Rechnungen und Fotos zuzugreifen.
Die eigenen Daten immer im Zugriff zu wissen, ohne sich dabei Gedanken über laufende Kosten zu machen, gibt mir ein gutes Gefühl.
pCloud ist ein Schweizer Unternehmen, das den Schweizer Datenschutzgesetzen unterliegt. Diese gehören zu den weltweit strengsten in Bezug auf die personenbezogenen Daten. Als Serverstandort ist bei der Neuregistrierung automatisch das EU-Rechenzentrum in Luxemburg ausgewählt.
Nicht vergessen: Die aktuellen Rabatte sichert ihr euch bis zum 19. Februar unter diesem Link.
Vielen Dank an das gesamte pCloud-Team für die Unterstützung von iPhoneBlog.de und Glückwünsche zum Firmenjubiläum!
Immer noch eine Baustelle: die Installation von zusätzlichen Schriften auf iOS und iPadOS

Ich habe eine neue Monospace-Lieblingsschrift – für Tot, Ulysses, Runstone und Secure ShellFish. Auch mein bevorzugter RSS-Reader – Reeder – erlaubt die Benutzung eigener Fonts, auch wenn mir speziell diese Schriftart nur zum Schreiben, nicht fürs Lesen, taugt.

Adobe bietet seine Abo-Schriften direkt über den App Store an. Die sogenannten „font provider apps“ erreichten uns mit iOS 13. Das Angebot wurde mit Ausnahme der Creative Suite jedoch nicht angenommen – oder ich kann es nicht finden.
Meine Vermutung: Der Vertrieb von Schriften über den App Store ist unpraktisch (App-Store-Accountzwang) und finanziell unattraktiv (In-App-Beteiligung).

Als „font provider app“ bekommt man auf iPhones und iPads das Privileg der Auflistung sowie einer Vorschau in den Einstellungen (➝ Allgemein ➝ Schriften). Im Gegensatz dazu installiert man extern gekaufte Schriftarten immer noch über Apps wie Fontcase mit einem Konfigurationsprofil.
Beides funktioniert, aber die Kopplung der externen Schrift-Installation an ein Konfigurationsprofil ist absolut unpassend. Diese Profile sind in der Lage, erhebliche Änderungen am System vorzunehmen; eine alltägliche Verwendung normalisiert dessen Benutzung.
Es ist aber insbesondere deshalb unzeitgemäß, weil Apple den Umgang mit Schriften bereits ins System integrierte, aber dem App Store vorbehält.

Einer separaten App, so wie auf macOS die „Font Book“-Applikation, bedarf es vielleicht nicht. Allerdings sollten sich die iOS- und iPadOS-Einstellungen genauso verhalten, und auch Schriften außerhalb des App Stores dem System zur Verfügung stellen.
Feedbin: „Search Upgrades“

There’s a nice new way to search within a feed or tag. When you start typing in the search field, Feedbin will suggest sources to search within. Choosing one of these sources will filter the search to only find results within your selection.
Feedbin versteht sich nicht als Archivportal, speichert aber die letzten 400 Artikel pro RSS-Feed. Über die umfangreiche (und jetzt flotte) „Search Syntax“ finde ich auch ältere, bereits gelesene News bequem wieder.
Feed-übergreifend spüre ich damit alle Beiträge zu einem Stichwort aus meinen (!) relevanten Quellen auf. Da hält kein Google mit. RSS bleibt ein fantastisches Investment von Zeit (und ein bisschen Geld).
#341 – Reader (von Readwise) vs Matter
Ohne Twitter hat man plötzlich viel Zeit zum Lesen. Mit Reader und Matter arbeite ich mich nicht nur durch den täglichen Nachrichtensturm, sondern beispielsweise auch durch das Archiv von Longreads.
Beide Apps wissen inzwischen, wie sie ihren Service finanzieren wollen. Für mich ist das ein echtes Beziehungs-Upgrade, das ich mit dieser Software eingehe.
iPhoneBlog #one kann man abonnieren. Alle Abonnent:innen bekommen jede Woche ein neues „Gewusst-wie”-Video, den Zugriff auf alle schon veröffentlichten Episoden und die Einladung zu einer ganz besonderen Community in einem privaten Slack-Kanal.
iPhoneBlog #one ist ausschließlich von Lesern und Leserinnen finanziert und unterstützt direkt das iPhoneBlog.
„Queryable“ durchsucht mit dem Deep-Learning-Modell CLIP eure Fotobibliothek
I built an app called Queryable, which integrates the CLIP model on iOS to search the Photos album OFFLINE. […]
CLIP (Contrastive Language-Image Pre-Training) is a model proposed by OpenAI in 2021. CLIP can encode images and text into representations that can be compared in the same space. CLIP is the basis for many text-to-image models (e.g. Stable Diffusion) to calculate the distance between the generated image and the prompt during training.

Diese zwei Screenshots demonstrieren, wie viel mehr Treffer Queryable findet, und gleichzeitig wie ungenau es dabei ist. Das geschulte Auge erkennt, dass das hervorgehobene Bild natürlich kein „lightning cable“ ist.
Aber warum zeigt Apples Suche in der Fotos-App ein iPhone? Beim genaueren Hinschauen zeigt sich der erkannte Text.

Queryable erkennt mit seinem KI-Modell nicht spezifisch Text, ordnet aber Wörter und Begriffe dem Bildmaterial zu. Dazu muss es einmalig durch eure Fotodatenbank schauen. 68.000 Bilder indexierte die Neural Engine im iPhone in zirka 15 Minuten. Das geschieht komplett Offline und klappt auch dann, wenn eure Bilder in der iCloud liegen und das iPhone lediglich ein Vorschau-Bild bereithält.
Voraussetzung ist mindestens ein iPhone 11 sowie iOS 16. Bei mir belegt die App nach ihrer Installation und Indexierung zirka 700 Megabyte. Jede einzelne Suchanfrage durch meine Fotobibliothek dauert auf dem iPhone 14 ungefähr fünf Sekunden.
Die Ergebnisse sind lustig, faszinierend, überraschend und zum Haare raufen. Oft sind die Assoziationen nachvollziehbar und geben einen anderen Blick auf die eigenen Bilder.
Die App ist jedoch karg. Es fehlt eine Zählung, wie viele Bilder gefunden wurden. Eine ausgeführte Suche lässt sich nicht erweitern oder modifizieren. Es existiert kein Suchverlauf und neue Bilder müssen von Hand in den Index aufgenommen werden.
Die Technikdemonstration würde ungemein an Wert gewinnen, wenn man ein gefundenes Foto in Queryable an der korrekten Zeitmarke in Apples Foto-App öffnet könnte. Derzeit bekommt man nur das Datum angezeigt und muss selbst scrollen.
Und trotzdem: Der Bildzuordnung zuzuschauen, insbesondere wenn mehr als nur einzelne Begriffe gesucht werden („We fight“, „We fell in love“), macht den Reiz von Queryable aus.

Downie: (YouTube-)Videos auf macOS über einen iOS-Kurzbefehl anstoßen
Die macOS-App Downie bleibt das beste FFmpeg-Frontend um Web-Videos zuverlässig auf die eigene Platte zu laden. So sah im letzten Jahr der Shortcut aus, der dies vom iPhone aus anstößt. Mit iOS 16 vereinfacht sich der „Run Script Over SSH“-Kurzbefehl und sieht jetzt wie folgt aus.

Am Mac muss unter ➝ „Sharing“ die Option ➝ „Remote Login“ aktiviert sein. Als „Host“ habe ich meine Tailscale-Adresse hinterlegt. So ist es egal, ob ich mich im gleichen Netzwerk befinde, oder unterwegs bin.
Und weil ich den Kurzbefehl häufiger nur aus der Ferne auslöse, speichere ich die Videodateien gleich in einen für mich von überall zugänglichen iCloud-Ordner.
Für den Empfang einer (YouTube-)URL muss Downie am Mac nicht einmal geöffnet sein: Es startet (und schließt) sich von selbst („Run in Automated Mode“). Optional lädt man so auch gleichzeitig eine separate Untertitel-Datei (.srt) oder extrahiert mit Permute die Audiospur des Videos.
Probleme? Einige Video-URLs schaffen es nicht über das Teilen-Menü zum Mac. Kopiert man sich die Webadresse jedoch in die Zwischenablage, und startet den Kurzbefehl von Hand, dann klappt’s. Außerdem stößt sich der Shortcut an URL-Anhängseln wie „?feature=share“.
iOS 16.3 erlaubt Sperrbildschirm-Widgets auf automatisch wechselnden Hintergrundbildern

In Episode #323 über die neuen Sperrbildschirm-Widgets hielt ich fest: „Der Nachteil von automatisch gesetzten Hintergrundbildern: Darauf lassen sich keine Widgets platzieren.“
Apple ändert das Verhalten mit iOS 16.3. Für mich bedeutet das: Meine Automation von Cuto, die zu jedem Sonnenaufgang den bestehenden Lockscreen mit einem neuen Hintergrundbild bestückt, kann nun Widgets besitzen.
Alternative Touchscreen-Geste, um den Bildschirminhalt zu vergrößern/verkleinern
Als Alternative zur klassischen „Spreizgeste“, lege ich oft nur einen Finger aufs Display und zoome durch eine Streichgeste mit einem einzelnen Finger der anderen Hand.
Insbesondere wenn ich im „Tastatur-Griff“ das iPhone halte, greife ich nicht um zur „Zwickgeste“ mit zwei Fingern der gleichen Hand, sondern vergrößere/verkleinere den Bildschirminhalt über jeweils einen Finger von beiden Händen.