Forscher der UC Berkeley stellen Gorilla vor: Ein fein abgestimmtes LLaMA

Blog

HeimHeim / Blog / Forscher der UC Berkeley stellen Gorilla vor: Ein fein abgestimmtes LLaMA

Jul 08, 2023

Forscher der UC Berkeley stellen Gorilla vor: Ein fein abgestimmtes LLaMA

Ein aktueller Durchbruch auf dem Gebiet der künstlichen Intelligenz ist die

Ein aktueller Durchbruch auf dem Gebiet der Künstlichen Intelligenz ist die Einführung von Large Language Models (LLMs). Diese Modelle ermöglichen es uns, Sprache präziser zu verstehen und so die Verarbeitung natürlicher Sprache (NLP) und das Verstehen natürlicher Sprache (NLU) optimal zu nutzen. Diese Modelle leisten bei allen anderen Aufgaben gute Dienste, einschließlich Textzusammenfassung, Beantwortung von Fragen, Generierung von Inhalten, Sprachübersetzung usw. Sie verstehen komplexe Textaufforderungen, sogar Texte mit Argumentation und Logik, und erkennen Muster und Beziehungen zwischen diesen Daten.

Obwohl Sprachmodelle eine unglaubliche Leistung gezeigt haben und sich in jüngster Zeit erheblich weiterentwickelt haben, indem sie ihre Kompetenz bei einer Vielzahl von Aufgaben unter Beweis gestellt haben, bleibt es für sie immer noch schwierig, Tools über API-Aufrufe effizient zu nutzen. Selbst berühmte LLMs wie GPT-4 haben Schwierigkeiten, präzise Eingabeargumente zu generieren, und empfehlen häufig unangemessene API-Aufrufe. Um dieses Problem anzugehen, haben Forscher von Berkeley und Microsoft Research Gorilla vorgeschlagen, ein fein abgestimmtes LLaMA-basiertes Modell, das GPT-4 in Bezug auf die Erzeugung von API-Aufrufen übertrifft. Gorilla hilft bei der Auswahl der geeigneten API und verbessert so die Fähigkeit von LLMs, mit externen Tools zur Durchführung bestimmter Aktivitäten zusammenzuarbeiten.

Das Forscherteam hat außerdem einen APIBench-Datensatz erstellt, der aus einem umfangreichen Korpus von APIs mit überlappenden Funktionen besteht. Der Datensatz wurde durch die Sammlung öffentlicher Modell-Hubs wie TorchHub, TensorHub und HuggingFace für ihre ML-APIs erstellt. Jede API-Anfrage von TorchHub und TensorHub ist für jede API enthalten und die 20 besten Modelle von HuggingFace für jede Aufgabenkategorie werden ausgewählt. Darüber hinaus erzeugen sie mithilfe der Selbstanweisungsmethode zehn fiktive Benutzerabfrageaufforderungen für jede API.

Mithilfe dieses APIBench-Datensatzes und des Dokumentenabrufs haben Forscher Gorilla verfeinert. Gorilla, das 7-Milliarden-Parameter-Modell, übertrifft GPT-4 hinsichtlich der Korrektheit der API-Funktion und verringert halluzinatorische Fehler. Die effektive Integration des Document Retrievers mit Gorilla zeigt die Möglichkeit für LLMs, Tools präziser zu nutzen. Die verbesserten API-Aufrufgenerierungsfunktionen von Gorilla und seine Fähigkeit, die Dokumentation nach Bedarf zu ändern, verbessern die Anwendbarkeit und Zuverlässigkeit der Modellergebnisse. Diese Entwicklung ist wichtig, da sie es LLMs ermöglicht, mit der regelmäßig aktualisierten Dokumentation Schritt zu halten und den Benutzern genauere und aktuellere Informationen bereitzustellen.

Eines der von den Forschern geteilten Beispiele zeigt, wie Gorilla Aufgaben richtig erkennt und vollständig qualifizierte API-Ergebnisse liefert. Von den Modellen generierte API-Aufrufe zeigten, dass GPT-4 API-Anfragen für hypothetische Modelle erzeugte, was auf ein mangelndes Verständnis der Aufgabe hinweist. Claude hat die falsche Bibliothek ausgewählt, was zeigt, dass er nicht in der Lage ist, die richtigen Ressourcen zu erkennen. Gorilla hingegen hat die Aufgabe richtig erkannt. Gorilla unterscheidet sich daher von GPT-4 und Claude dadurch, dass die Erstellung von API-Aufrufen präzise ist, was sowohl seine verbesserte Leistung als auch sein Aufgabenverständnis demonstriert.

Zusammenfassend lässt sich sagen, dass Gorilla eine wichtige Ergänzung zur Liste der Sprachmodelle ist, da es sogar das Problem des Schreibens von API-Aufrufen behandelt. Seine Fähigkeiten ermöglichen die Reduzierung von Problemen im Zusammenhang mit Halluzinationen und Zuverlässigkeit.

Besuche diePapier, Github-Link, UndProjektseite.Vergessen Sie nicht, mitzumachenunser 22k+ ML SubReddit,Discord-Kanal, UndE-Mail-Newsletter , wo wir die neuesten Nachrichten aus der KI-Forschung, coole KI-Projekte und mehr teilen. Wenn Sie Fragen zum obigen Artikel haben oder uns etwas entgangen ist, schreiben Sie uns gerne eine E-Mail an[email protected]

🚀 Schauen Sie sich 100 KI-Tools im AI Tools Club an

Tanya Malhotra studiert im letzten Studienjahr an der University of Petroleum & Energy Studies in Dehradun und studiert BTech in Informatik mit Spezialisierung auf künstliche Intelligenz und maschinelles Lernen großes Interesse daran, neue Fähigkeiten zu erwerben, Gruppen zu leiten und die Arbeit organisiert zu verwalten.

Papier, Github-Link-Projektseite. unser 22k+ ML SubReddit Discord Channel E-Mail-Newsletter [email protected] 🚀 Schauen Sie sich 100 KI-Tools im AI Tools Club an