„Locally AI“ stellt Offline-AI-Modelle

„Apple läuft AI hinterher“, während es die besten Computer dafür baut – und ganz okay verkauft. Das Narrativ schadet ihnen mehr, als die immer noch fehlende „more personalized Siri1.

Diese „besten Computer“ arbeiten sich oft aber nicht an den technischen Herausforderungen von On-Device-AI ab, sondern stehen in Konkurrenz mit den großzügigen (Lock-)Angeboten von Cloud-AI.

Wie sinnvoll und hilfreich lokale AI-Modelle für typische Nutzer:innen sind, insbesondere angesichts des Preisdumpings von serverseitiger KI, sei dahingestellt. Die technische Demonstration bleibt trotzdem beeindruckend.

Locally AI lässt euch ohne den Umweg über Rechenzentren mit verschiedensten Modellen texten und chatten – Apples Foundation-Modell inklusive.

Close-up of a smartphone screen displaying a chat conversation with "Apple Foundation," asking for help creating a balanced daily schedule for work-life balance, with time management tips and suggested breaks.

So beschreibt Qwen-3VL euch beispielsweise Bilder; und meine Kids haben Googles Gemma 3n-Modell heute mit allerlei Weltfragen gelöchert.

Locally AI lädt Offline-Modelle aufs iPhone, iPad und den Mac – kostenlos und ohne Nerd-UI.


  1. Den anhaltenden Talentverlust erachte ich dagegen als ernsthaft bedenklich, genau wie die ewigen Verhandlungen mit Google.

    >Cook said that the company still plans to release an updated version of Siri next year, and said that there were more forthcoming partnerships like the company’s agreement to integrate OpenAI’s ChatGPT into Apple Intelligence.

    >“Our intention is to integrate with more people over time,” Cook said.

    >CNBC | Kif Leswing