von Alex Olma
11. Januar 2013 – 14:40 Uhr

Audiobus verdrahtet iOS-Musik-Apps

Audiobus (8.99 €; universal; App-Store-Link) revolutioniert die iOS-Musikproduktion. Nein, das ist keine Übertreibung. Die iPhone- und iPad-App verdrahtet Software-Synthesizer von Korg bis ReBirth, bindet virtuelle Instrumente ein (DrumJam, ThumbJam oder Audulus) und schaltet Effekt-Maschinen wie Loopy HD, LiveFX oder NLog MIDI Synth dazu. Alle Musikspuren fallen anschließend in ein digitales Aufnahmestudio wie beispielsweise MultiTrack DAW*.

Erstmals verknüpft ein unabhängiges Framework über 50 populäre iOS-Sound-Apps und baut die Trittleiter für einen Workflow, der ohne nerviges Copy & Paste oder zeitraubende Exporte auskommt.

DirektAudiobus

Die Liste der Entwickler, die an diesem ‘Taste Pixel‘-Projekt mitziehen, ist nach dem ersten App-Store-Monat bereits beeindruckend. Doch das verwundert nicht: Audiobus fungiert nur als (kinderleicht zu bedienende) Schnittstelle und lässt die individuellen Anwendungen mit ihrem kompletten Funktionsumfang glänzen – unabhängig davon ob’s um eine Live-Performance oder eine präzise zusammengestückelte Komposition geht.

Diese kurzen YouTube-Auszüge (1, 2, oder 3) sowie der Ausflug ins Audiobus-Tumblr-Blog lohnen sich sehr.

* iTunes-Affiliate-Links

  • Fabian

    Eine systemunabhängiges Framework das Audioapps miteinander verknüpft, dass nur funktioniert, wenn man “Framework-App” installiert hat. Kann mir jemand erklären, wie Audiobus die Systemeinschränkungen für Hintergrundprozesse (offiziell) umgeht? Oder ist die Audiostreaming-Hintergrund-API so flexibel, dass sie doch die Anwendungen weiterlaufen lässt? Oder geht der Audiostream praktisch nur durch Audiobus, welches sich wiederum Funktionen aus den einzelnen Apps zusammenbaut?

    • http://www.iphoneblog.de/ iphoneblog

      Ich kann dir dies technisch nicht beantworten aber vielleicht hilft dieser Link zur Entstehungsgeschichte von Audiobus.

      http://atastypixel.com/blog/thirteen-months-of-audiobus/#more-2582

    • http://www.sebbi.de/ Sebastian H.

      Ich frage mich auch wie das funktionieren kann, bei den sonstigen Einschränkungen die Apple im Bezug auf Kommunikation zwischen laufenden Apps macht.

      Ich tippe darauf, dass das Framework einen lokalen TCP/IP oder UDP Server laufen lässt und so die Audiostreams von den Apps, die das unterstützen, übertragen und die UI Elemente entsprechend angezeigt werden. Virtuelle Kabel eben ;-)

      Faszinierend wie sie es geschafft haben so viele App-Entwickler zum Einbau zu bewegen.

      • Fabian

        Einen lokalen Server halte ich für unwahrscheinlich, da dieser auch im Hintergrund laufen müsste, was meiner Meinung nach mit den iOS-Hintergrundprozessen nicht funktioniert.
        In dem von Alex verlinkten Blogbeitrag wird der in iOS integrierte Midi-Support erwähnt. Das scheint wohl der Schlüssel zu sein. Es erklärt zumindest wieso, wieso das durch die App-Store-Prüfung geht. (Mir ist aber trotzdem noch unklar welche Rolle die Audiobus-App spielt (also technisch))

  • PabloNop

    Nett, und das ist mal ein deutlicher Hinweis an Apple, dass sie sich bei iOS dringend um das Thema Datenaustausch zwischen Apps kümmern müssen.

    • ralfy

      da die apps darin nicht synrco laufen ist das audiobus komplett nutzlos leider.

  • Pingback: Audiobus – Digitales Aufnahmestudio für iOS-Musik-Apps › Progolog

  • Pingback: GarageBand spricht mit Audiobus – iPhoneBlog.de

iPhoneBlog–Social

Support

App Store

Wer eine beliebige iPhone-App im App Store über diesen Link kauft, seinen Mac mit Software aus dem Mac App Store beglückt oder ein Produkt seiner Wahl bei Amazon bestellt, unterstützt das iPhoneBlog mit einem kleinen Prozentsatz des (unveränderten) Kaufpreises.

Flattr verteilt Mikrozahlungen, mit denen Ihr persönlich diesem Blog kleine Aufmerksamkeiten zukommen lasst. Über diesen Button; jeden Monat neu. Vielen Dank dafür!

Archiv

Gastfreundschaften