PARIS / MÜNCHEN (IT BOLTWISE) – Die Open-Source-KI-Gemeinschaft erlebt derzeit eine rasante Entwicklung, die selbst für ihre dynamischen Verhältnisse außergewöhnlich ist.


  • News von IT Boltwise® bei LinkedIn abonnieren!
  • AI Morning Podcast bei Spotify / Amazon / Apple verfolgen!
  • Neue Meldungen bequem per eMail via Newsletter erhalten!
  • IT Boltwise® bei Facebook als Fan markieren!
  • RSS-Feed 2.0 von IT Boltwise® abonnieren!

  • In den letzten Tagen sorgte ein Beitrag auf HuggingFace, der führenden Plattform für den Austausch von Open-Source-KI-Modellen und Code, für Aufsehen. Ein Nutzer mit dem Namen „Miqu Dev“ veröffentlichte eine Reihe von Dateien, die zusammen ein scheinbar neues Open-Source-Large-Language-Model (LLM) mit dem Namen „miqu-1-70b“ bildeten. Die Eintragung auf HuggingFace, die zum Zeitpunkt dieses Artikels noch abrufbar ist, wies darauf hin, dass das Interaktionsformat des neuen LLMs mit dem von Mistral, dem wohlfinanzierten Pariser Open-Source-KI-Unternehmen hinter Mixtral 8x7b, identisch ist. Letzteres gilt aktuell als leistungsstärkstes Open-Source-LLM, eine optimierte und neu trainierte Version von Metas Llama 2.

    Am selben Tag wurde auf 4chan, bekannt als Brutstätte für Online-Memes und Toxizität, anonym ein Link zu den „miqu-1-70b“-Dateien gepostet, woraufhin die Entdeckung des Modells und seine außergewöhnlich hohe Leistung bei gängigen LLM-Aufgaben (gemessen an Benchmarks) bekannt wurde und Vergleiche mit dem führenden OpenAI GPT-4 zog.

    Die Spekulationen, ob „Miqu“ ein von Mistral heimlich „geleaktes“ Modell sein könnte, nahmen zu, insbesondere da bekannt ist, dass Mistral neue Modelle und Updates oft ohne viel Aufhebens auf technisch versierte Weise veröffentlicht.

    Arthur Mensch, Mitbegründer und CEO von Mistral, gab schließlich eine Erklärung ab, in der er klarstellte: „Ein übermotivierter Mitarbeiter eines unserer Frühzugangskunden hat eine quantisierte (und mit Wasserzeichen versehene) Version eines alten Modells geleakt… Wir haben gute Fortschritte gemacht – bleiben Sie dran!“ Mensch ließ auch durchblicken, dass Mistral an einer Version des so genannten „Miqu“-Modells arbeitet, die möglicherweise die Leistung von GPT-4 erreichen oder sogar übertreffen könnte.

    Dies könnte ein Wendepunkt nicht nur für die Open-Source-Generative-KI, sondern für das gesamte Feld der KI und Informatik bedeuten: Seit seiner Veröffentlichung im März 2023 galt GPT-4 als das leistungsfähigste und höchstperformante LLM weltweit. Die Veröffentlichung eines Open-Source-GPT-4-Klasse-Modells könnte enormen Wettbewerbsdruck auf OpenAI und seine Abonnementstufen ausüben, besonders da immer mehr Unternehmen auf Open-Source-Modelle oder eine Mischung aus Open-Source- und Closed-Source-Modellen setzen, um ihre Anwendungen zu betreiben. OpenAI könnte zwar mit seinem schnelleren GPT-4 Turbo und GPT-4V (Vision) einen Vorsprung behalten, aber es ist unverkennbar, dass die Open-Source-KI-Gemeinschaft schnell aufholt. Ob OpenAI einen ausreichenden Vorsprung und eine metaphorische „Festung“ mit seinem GPT Store und anderen Funktionen hat, um an der Spitze für LLMs zu bleiben, bleibt abzuwarten.

    Mistral-CEO bestätigt 'Leak' eines neuen Open-Source-KI-Modells mit GPT-4-ähnlicher Leistung
    Mistral-CEO bestätigt ‚Leak‘ eines neuen Open-Source-KI-Modells mit GPT-4-ähnlicher Leistung (Foto:Midjourney, IT BOLTWISE)
    Hinweis: Teile dieses Textes könnten mithilfe Künstlicher Intelligenz generiert worden sein.



    Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
    Stichwörter
    Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!


    {Abo}
    LinkedIn
    Facebook
    Twitter
    {Podcast}
    YouTube
    Spotify
    Apple

    Schreibe einen Kommentar

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert



    Es werden alle Kommentare moderiert!

    Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

    Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

    Du willst nichts verpassen?

    Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.