Clth vs. GPT4 - Ein Praktischer Vergleich (mit Code-Beispielen)

By Dave Ebbelaar · 2024-03-22

Eine eingehende Analyse der neuesten Entwicklungen in der KI-Welt, insbesondere im Vergleich zwischen Clth und GPT-4. Erfahren Sie mehr über Leistung, Intelligenz und Kosten.

Die neueste Entwicklung im Bereich KI: Clth im Vergleich zu GPT-3.5 und GP4

  • Hallo, ich bin Dave, und wenn Sie ein gewisses Interesse an KI haben, haben Sie wahrscheinlich den neuen Clth 3-Modellfamilienrelease gesehen. In der KI-Welt geht alles Schlag auf Schlag. Vor zwei Wochen lag Google vorn, als es GP4 in allen möglichen Bereichen übertraf. Jetzt behauptet Entropic erneut mit zahlreichen neuen Upgrades zu punkten. Als KI-Ingenieur, der diese großen Sprachmodelle professionell für meine Kunden nutzt, werde ich ständig umschalten und mich anpassen müssen, um herauszufinden, welche Modelle für bestimmte Anwendungsfälle am besten geeignet sind. Hierbei muss ich Faktoren wie Leistung, Intelligenz, Geschwindigkeit und Kosten berücksichtigen. Bisher habe ich hauptsächlich GP4 und GPT-3.5 für die Projekte meiner Kunden verwendet, aber jetzt stehe ich vor der Möglichkeit, auch Clth zu nutzen, angesichts der neuesten Behauptungen.
Die neueste Entwicklung im Bereich KI: Clth im Vergleich zu GPT-3.5 und GP4
Die neueste Entwicklung im Bereich KI: Clth im Vergleich zu GPT-3.5 und GP4

Vergleich zwischen GPT-4 und Cloud-Modellen für Entwickler

  • Nachdem ich mich entschlossen habe, all diese Tests zu untersuchen, habe ich einen schnellen Vergleich zwischen dem aktuellen GPT-4 und hauptsächlich dem Turbo-Modell und diesen neuen Cloud-Modellen angestellt. Auch habe ich einen Blick auf den Entwickler-Workflow geworfen, da ich viele Projekte habe, bei denen wir OpenAI und die GPT-Modelle nutzen. Wie einfach ist es tatsächlich, Modelle auszutauschen, ohne zu kompliziert zu werden? Ich habe hier etwas Code für Sie, den ich auch für Sie verfügbar machen werde. Ich habe zwei Dienste, die über das hinausgehen, was ich in diesem Video behandeln werde. Ich denke, diese werden für Sie auf jeden Fall wertvoll sein, da dies wirklich ist, wie wir große Sprachmodelle für alle Projekte einrichten, an denen wir bei Data Lumina arbeiten. Ich habe einen Azure OpenAI-Dienst und einen Entropic-Dienst, und wir werden eine einfache Einrichtung durchführen, indem wir ihm ein System-Prom und eine einfache Anleitung zur Erstellung eines einfachen LinkedIn bereitstellen.
Vergleich zwischen GPT-4 und Cloud-Modellen für Entwickler
Vergleich zwischen GPT-4 und Cloud-Modellen für Entwickler

Die Bedeutung von strukturiertem Output für die Verwendung von LLMs zur Inhalts-Erstellung

  • In diesem Beitrag werden wir einen LLN für die Inhalts-Erstellung verwenden, und was mich speziell interessiert, ist die strukturierte Ausgabequalität dieser Modelle. Denn in letzter Zeit, wenn wir hierher zu den Modellen kommen, erinnern Sie sich vielleicht an den OpenAI-Tag, der schon vor einiger Zeit stattgefunden hat. Eines der großen Updates war tatsächlich der Jason-Modus, und zumindest für mich war dies so nützlich, um LLNs anzuweisen, zuverlässige JSON-Ausgaben bereitzustellen. Zuerst musste man sich nur um die Aufforderung herummanövrieren, um bitte die JSON-Ausgabe usw. bereitzustellen. Und das ist wirklich mein Standard geworden, meine Anlaufstelle, wenn ich mit großen Sprachmodellen interagiere, selbst wenn ich nicht explizit eine JSON-Ausgabe möchte, bitte ich trotzdem darum und nehme einfach den ersten Schlüssel als Antwort. Warum mache ich das? Denn aus entwicklungsbezogener Sicht macht es einfach viel mehr Sinn, Objekte, Daten in JSON zu haben, bis zu dem Punkt, dass selbst wenn Sie etwas Einfaches tun, selbst wenn Sie es tun
Die Bedeutung von strukturiertem Output für die Verwendung von LLMs zur Inhalts-Erstellung
Die Bedeutung von strukturiertem Output für die Verwendung von LLMs zur Inhalts-Erstellung

Die Bedeutung von Metadaten bei der Verwendung von Open AI Turbo Models

  • In einem Chat, wie beispielsweise einem Chat B, in dem Informationen hin und her gesendet werden, kann es sehr nützlich sein, lediglich die Nachricht beim ersten Schlüssel zu haben und dann möglicherweise einige zusätzliche Metadaten bereitzustellen, die protokolliert werden können. Die Turbo-Modelle von Open AI sind wirklich das, was ich dafür bevorzuge. Wenn wir dann zur Azure Open AI Surface kommen, könnte es sein, dass ich hier und da ein wenig durcheinander komme. Dies wird lediglich eine Demo auf Basis meiner Beobachtungen sein, daher könnte es etwas weniger strukturiert sein als das, was Sie gewohnt sind. Hier können Sie sich das Antwortformat ansehen. Sie können buchstäblich sagen, wenn Sie mit den Turbo-Modellen von Open AI interagieren, dass Sie JSON möchten und sehen wollen, wie dies in einem Entropic mit den neuen Cloud-Modellen funktioniert, um den Workflow zu vergleichen. Ich habe also zwei Arbeitsbeispiele, bei denen wir auch zwei endgültige Ergebnisse haben. Lassen Sie uns diese schnell durchgehen, um Ihnen zunächst einmal zu zeigen, welche Unterschiede es gibt.
Die Bedeutung von Metadaten bei der Verwendung von Open AI Turbo Models
Die Bedeutung von Metadaten bei der Verwendung von Open AI Turbo Models

Die Bedeutung von Azure OpenAI für Entwickler

  • Die Spezifikation des Ausgangs kann variieren, aber sie werden sich sehr ähnlich sein. Es hängt ein wenig vom Stil und Ihren Vorlieben ab, aber hauptsächlich vom Workflow. Als KI-Entwickler ist es sinnvoll, sich bei Entropic anzumelden, den API-Schlüssel zu erhalten und zu sehen, wo ich dieses Modell einbinden kann. Dieses Video wird keine umfassende Bewertung der Benchmarks sein, um das beste Modell herauszufinden, sondern ein praktischer Leitfaden für Entwickler. Azure OpenAI ist eine Möglichkeit, die OpenAI-Modelle über Azure zu nutzen, mit einem zusätzlichen Sicherheitsaspekt, was für die meisten meiner Kunden unerlässlich ist. Trotzdem handelt es sich um das gleiche Modell.
Die Bedeutung von Azure OpenAI für Entwickler
Die Bedeutung von Azure OpenAI für Entwickler

Magie in der Programmierung

  • Schauen Sie sich an, was wir hier haben. Es handelt sich um eine einfache Einrichtung, um eine Klasse zu initialisieren. Wir verknüpfen alles und dann haben wir eine einfache Funktion zur Chat-Vervollständigung. Hier ist die Funktion zur Generierung einer Antwort. Wir geben einen Systemprompt, sagen, dass wir einen LinkedIn-Beitrag schreiben werden usw. Wir geben einige Spezifikationen vor und sagen auch, dass wir die Ausgabe im JSON-Format wünschen. Wir möchten Inhaltskeywords und einen Titel und dann binden wir dies in dieses Nachrichtenformat mit Systemanmeldung ein und senden es tatsächlich an die API. Das ist wirklich der Ort, an dem die Magie passiert. Da wir angewiesen wurden, dies als JSON-Objekt zurückzugeben, können wir dann hier Json-Loads aufrufen und es als JSON-Antwort zurückgeben. Wenn ich jetzt hier hereinkomme und dies noch einmal ausführe, lassen Sie mich tatsächlich sehen, warten, ich muss es nicht noch einmal ausführen, ich habe es bereits hier im Speicher, also kann ich jetzt dieses Ergebnis, das ich habe, betrachten. Im Moment wurde ich gebeten, einen LinkedIn-Beitrag zu verfassen, aber ich habe den Inhalt, einige Keywords und auch ein
Magie in der Programmierung
Magie in der Programmierung

Die Bedeutung von strukturiertem JSON-Output in der Content-Generierung

  • Stellen Sie sich vor, Sie würden eine Art automatisierte Content-Generierung erstellen, bei der Sie ein Content-Management-System haben, in dem Sie all diese wertvollen Informationen speichern möchten. In diesem Content-Management-System könnte dies der Titel sein, den Sie für diesen Beitrag verwenden. Der eigentliche Inhalt kann dann als Schlüssel in diesem Dictionary abgefragt werden. Strukturierter Output im Json-Format von llms ist daher großartig. Schauen wir uns an, wie das in Entropic aussieht. Bis heute Nachmittag hatte ich noch nie mit der Entropic-API gearbeitet, also war das alles neu für mich. Glücklicherweise ist es jedoch sehr einfach und sehr ähnlich wie die Arbeit mit Open AI. Auf der Website gibt es einige einfache Anleitungen zum Einstieg, z. B. mit Python. Es ist ein sehr ähnlicher Stil und auch in Bezug auf die Nachrichten konfigurieren sie das genau gleich. Es ist schön zu sehen, dass sie, obwohl sie Wettbewerber sind, versuchen, dies zu optimieren.
Die Bedeutung von strukturiertem JSON-Output in der Content-Generierung
Die Bedeutung von strukturiertem JSON-Output in der Content-Generierung

Entropic: Eine Revolution in der Entwicklererfahrung

  • Entwicklererfahrung und jetzt können Sie auch sehen, wenn wir uns die Modelle jetzt ansehen. Sie haben drei Modelle eingeführt. Wenn wir also schauen, können Sie es auch hier sehen, aber auch in der Einleitung, in der sie darüber sprechen. Wir haben ein HiU, das noch nicht draußen ist, aber bald verfügbar sein wird. Wir haben Sonet und Opus, wobei je höher Sie gehen, desto intelligenter es wird, aber auch langsamer und kostspieliger. Sie erklären im Grunde genommen, dass Sonet die ausgewogenste Version ist, dies ist einfach maximale Leistung, und dies wird ein wirklich kosteneffizientes Modell sein. So können Sie derzeit Opus unter Verwendung dieses Modellnamens oder Sonnet wählen. Das ist im Wesentlichen, wie sie es erklären, und jetzt können Sie auch hier sehen, was wir hier tun. Lassen Sie mich für Sie etwas näher heranzoomen, damit Sie sehen können, was hier vor sich geht. Wir haben ein sehr ähnliches Setup wie bei der OpenAI-Version, aber jetzt machen wir es mit Entropic. Wir haben wieder einen Systemprompt, der genau derselbe ist, und dann erstellen wir die Nachricht, aber jetzt sind wir hier.
Entropic: Eine Revolution in der Entwicklererfahrung
Entropic: Eine Revolution in der Entwicklererfahrung

Verbesserung der Entropic API durch Strukturausgabe

  • Ich habe etwas Interessantes gemacht und ich habe eine Weile daran herumgespielt und ich möchte dies gerne mit Ihnen teilen, weil ich denke, dass es sehr hilfreich sein wird. Das liegt daran, dass die Entropic API nicht über den strukturierten Ausgabeparameter wie das Open AI-Modell verfügt, aber es gibt einige Dinge, die Sie tun können, um es anzupassen und im Wesentlichen, wo Sie es hier sehen können. Hier zeigen sie einige Beispiele, wie Sie Ausgaben steuern können. Zum Beispiel können Sie es einfach anweisen, dies zu tun. Dies würde einfach über eine Eingabeaufforderung erfolgen, aber was ich bemerkt habe ist, dass manchmal, wenn man dies tut, man immer noch dieses seltsame Problem bekommt, bei dem man um eine Json-Ausgabe bittet und das Modell dann sagt, okay, hier ist Ihre Antwort in Json-Ausgabe, und dann gibt es Jason – nein, das ist nicht was ich will, ich will einfach das Json. Andernfalls kann es zu Fehlern kommen, weil die Json-Loads nicht funktionieren, aber hier ist etwas wirklich Cool es gibt diese Option der Vorabfüllung, bei der Sie im Wesentlichen die
Verbesserung der Entropic API durch Strukturausgabe
Verbesserung der Entropic API durch Strukturausgabe

Effektive Verwendung von Systemprompten in KI-Textgenerierung

  • Ein wichtiger Aspekt bei der Verwendung von Systemprompten in der KI-Textgenerierung ist die richtige Einbettung dieser Prompte, um optimale Ergebnisse zu erzielen. Indem Sie eine öffnende Klammer verwenden, signalisieren Sie dem Modell, dass dies der Beginn Ihrer Antwort sein sollte. In meiner Erfahrung ist dies der einzige logische Weg für das Modell, um die Vervollständigung korrekt durchzuführen. Ich habe einige Experimente durchgeführt und keine Probleme damit gehabt. Die Einrichtung der Nachricht ist recht einfach. Zunächst geben Sie den Systemprompt an, gefolgt vom Benutzerprompt. Dann fügen Sie einen weiteren für den Assistenten hinzu und setzen die öffnende Klammer. Nachdem alle Texte an die API gesendet wurden, muss die Klammer wieder hinzugefügt werden, da die API die Nachricht ohne Klammer zurückgibt. Schließlich müssen Sie alles wieder zusammenfügen, damit die Json-Daten ordnungsgemäß funktionieren.
Effektive Verwendung von Systemprompten in KI-Textgenerierung
Effektive Verwendung von Systemprompten in KI-Textgenerierung

Die Bedeutung strukturierter JSON-Antworten in der Entwicklung

  • Wenn wir die gleiche Oberfläche haben, kann ich Ihnen jetzt auch zeigen, wie das aussieht. Hier sehen Sie, dass es immer noch funktioniert. Jetzt haben wir ein ähnliches Setup, bei dem wir einen Titel, Schlüsselwörter und tatsächlich den Inhalt haben. Wenn wir das also vergleichen und wie ich bereits erwähnt habe, werde ich nicht wirklich Satz für Satz überprüfen, welcher besser ist. Ich denke, beide haben ihre Stärken und Schwächen und es geht viel mehr um Feinabstimmung mit Beispielen und Ihrem eigenen persönlichen Stil. Aber im Grunde haben wir ein Setup erstellt, bei dem Sie jetzt, wenn Sie eine Art Anwendung oder ein Projekt für einen Kunden erstellen würden, ganz einfach verschiedene Modelle austauschen und dieselbe strukturierte JSON-Antwort erhalten können. Ich denke, das ist das übergeordnete Ziel und das, was ich Ihnen in diesem kurzen Video zeigen wollte. Das wird ein fortlaufender Prozess sein, Google wird mithalten, OpenAI wird mit GPT-5 zurückkommen und CLA wird wieder ins Rennen einsteigen. Ich denke, dass dies als Entwickler wirklich ein Setup ist, an dem Sie arbeiten sollten.
Die Bedeutung strukturierter JSON-Antworten in der Entwicklung
Die Bedeutung strukturierter JSON-Antworten in der Entwicklung

Die Zukunft der KI-Modelle: Eine persönliche Perspektive eines Softwareentwicklers

  • In Bezug auf die Verwendung von Abstraktion versuche ich immer so wenig wie möglich zu verwenden. Daher bin ich auch vorsichtig mit Frameworks wie Lang Chain, mit denen ich bereits auf mehrere Probleme gestoßen bin, da sich alles so schnell verändert. Durch das Besitzen Ihrer eigenen Code-Basis mit Ihren eigenen Services für Entropie, Azure, OpenAI oder Google haben Sie die volle Kontrolle und können schnell Wrapper um Ihre eigenen Services erstellen, die Sie dann pflegen. Sind diese neuen Modelle besser? Sollten Sie wechseln? Nun, es kommt darauf an. Wenn wir uns die Benchmarks ansehen, wahrscheinlich ja. Wenn wir es jedoch aus der Perspektive eines Entwicklers betrachten, hängt es immer davon ab, welches Problem Sie lösen möchten. Wenn Sie bereits voll und ganz auf OpenAI GPT-4 setzen, dann fahren Sie damit fort. Vielleicht sollten Sie jedoch für neue Projekte in Betracht ziehen, mit diesem Setup zu experimentieren. Ich werde auf jeden Fall damit fortfahren. Ich habe einige neue Projekte geplant, bei denen ich wahrscheinlich beides ausprobieren werde und sie parallel evaluieren werde. Das wird wirklich interessant sein. Also, wenn Sie ein Entwickler sind und sich noch nicht für Entropie angemeldet haben, würde ich das
Die Zukunft der KI-Modelle: Eine persönliche Perspektive eines Softwareentwicklers
Die Zukunft der KI-Modelle: Eine persönliche Perspektive eines Softwareentwicklers

Freiberufliche Arbeit im Bereich KI und Daten – Eine neue Möglichkeit, Geld zu verdienen

  • Ich empfehle Ihnen, sich auf die Liste setzen zu lassen, um einen API-Schlüssel zu erhalten. Wenn Sie auch an KI-Projekten arbeiten möchten, indem Sie Kunden helfen und dies auf freiberuflicher Basis tun möchten, um möglicherweise etwas mehr Geld zu verdienen, vielleicht sogar Vollzeit zu gehen, aber Sie wissen nicht wirklich, wo Sie anfangen sollen, dann sollten Sie sich das Programm Data Freelancer ansehen. Dies wird etwas Eigenwerbung sein, aber ich habe gerade eine völlig neue Version des Programms Data Freelancer veröffentlicht, um Datenprofis, Software-Ingenieure und KI-Ingenieure wirklich beim Einstieg in die Freiberuflichkeit zu helfen. Ich mache seit 5 Jahren einen Vollzeit-Lebensunterhalt damit und habe auch vielen anderen Menschen geholfen, dies zu erreichen. Bisher haben wir nur Fünf-Sterne-Bewertungen, die Leute lieben das Programm und wir haben gerade eine völlig neue Version veröffentlicht, die es noch besser macht. Wenn das auf Sie zutrifft, können Sie auf den Link in der Beschreibung klicken. Sie gelangen zu dieser Seite, können sich das Video ansehen, um zu sehen, ob es Ihnen gefällt. Wenn nicht, macht das nichts aus. Und wenn Sie dieses Video hilfreich fanden, lassen Sie bitte ein Like da und überlegen Sie auch, ob Sie den Kanal abonnieren möchten. Ich sehe Sie im nächsten Video.
Freiberufliche Arbeit im Bereich KI und Daten – Eine neue Möglichkeit, Geld zu verdienen
Freiberufliche Arbeit im Bereich KI und Daten – Eine neue Möglichkeit, Geld zu verdienen

Conclusion:

Die Wahl zwischen Clth und GPT-4 hängt von verschiedenen Faktoren wie Leistung, Intelligenz, Workflow und Kosten ab. Beide Modelle bieten einzigartige Vorteile, die es zu berücksichtigen gilt.

Q & A

ClthGPT-4KI-WeltCode-BeispieleEntwickler-Workflow
Revolutionäre KI-Modelle: Claude 3 gegen GPT 5 - Ein VergleichDie Kunst der Blog-Optimierung: Maximieren Sie Ihren Online-Erfolg!

About Us

Heichat is dedicated to enhancing customer service experience through AI technology. By learning about your store's products/policies, it can efficiently handle customer service tasks, reducing your burden and boosting your sales.

Affiliate Program

Join Friends of HeiChat and receive a 30% commission on all payments within the first 12 months.🎉🤝

Sign Up

Contact Info

heicarbook@gmail.com

Follow Us

@Heicarbook All rights reserved