Haben Sie schon einmal von RecurrentGemma, Griffin oder Hawk gehört? Wahrscheinlich wissen nur die Wenigsten etwas damit anzufangen. Diese Begriffe stehen jedoch für eine neue Generation der KI-Technologie, die laut eines Forschungsberichts von Google DeepMind bisher genutzte Basis von Large-Language-Modellen ablösen könnte. Doch auf welcher Technologie basiert Künstliche Intelligenz bisher und warum könnte Google hier ein Durchbruch gelungen sein?
Egal ob Machine Learning, Deep Learning oder Large-Language-Modelle; heutzutage basiert Künstliche Intelligenz auf dem Einsatz sogenannter Transformatoren. Dabei handelt es sich um eine Art neuronaler Netzwerke, die eine Eingabesequenz in eine Ausgabesequenz transformieren. Dies reicht von der automatischen Vervollständigung eines Satzes bis hin zum Generieren von Bildern oder Musik aus einer Textbeschreibung. Besonders umfangreiche KI-Anwendungen erfordern dabei eine hohe Rechenleistung, denn die künstliche Intelligenz muss vorher entsprechend trainiert werden.
In einem Forschungsbericht vom 11.04.2024 mit dem englischen Titel „Moving Past Transformers for Efficient Open Language Models” hat Google jetzt ein neues und offenes Modell mit dem Namen RecurrentGemma vorgestellt, welches auf der Griffin Architektur beruht. Dabei handelt es sich um eine Hybrid-Technologie, die im Gegensatz zu herkömmlichen Transformatoren weniger Rechenleistung beansprucht. Dadurch wird mit weniger Trainingsdaten ein besseres Ergebnis erzielt. Was bedeutet das konkret für die KI-Forschung? Bisher war die Verbesserung von KI-Modellen stark von der Erhöhung der vorhandenen Ressourcen abhängig. In naher Zukunft könnten leistungsstarke Large-Language-Modelle auch bei begrenzten Ressourcen genutzt werden.
Wenn Sie weitere Fragen rund um das Thema Künstliche Intelligenz haben, dann schreiben Sie uns heute eine E-Mail an: info@munich-milan.de