Een Praktische Vergelijking: GPT-4 vs. Entropic Cloudmodellen

By Dave Ebbelaar · 2024-03-22

In deze blog ontdek je een praktische vergelijking tussen GPT-4 en de nieuwe Cloudmodellen van Entropic. Leer meer over de ontwikkelaarsworkflow en de voordelen van gestructureerde JSON-output.

De Nieuwe Ontwikkelingen in Artificial Intelligence: Een Toekomst van Voortdurende Aanpassing

  • Hallo, hier is Dave en als je enigszins geïnteresseerd bent in AI en je hebt je browser geopend of je telefoon opgepakt, dan heb je waarschijnlijk de nieuwe release gezien van de Cloud 3 Model-familie. Nu met alles wat er gebeurt binnen het AI-landschap, kunnen we eigenlijk niet bijbenen. Twee weken geleden was het Google die GP4 op allerlei gebieden versloeg. Nu hebben we weer Entropic die beweert als we naar de lading kijken allerlei nieuwe upgrades te hebben. Wat dit voor mij als AI-ingenieur betekent die deze grote taalmodellen professioneel gebruikt voor de klanten waarmee ik op dit moment werk en ook in de toekomst zal werken, is dat we voortdurend zullen moeten schakelen en ons aanpassen om erachter te komen wat de beste modellen zijn voor een bepaald soort gebruik, waarbij we rekening moeten houden met prestaties, intelligentie, snelheid en kosten. Tot nu toe heb ik alleen GP4 en GPT 3.5 gebruikt voor de projecten waaraan ik voor mijn klanten werk, maar nu kom ik op een punt waar ik ook toegang heb tot CLTH en met deze nieuwe claims hierover.
De Nieuwe Ontwikkelingen in Artificial Intelligence: Een Toekomst van Voortdurende Aanpassing
De Nieuwe Ontwikkelingen in Artificial Intelligence: Een Toekomst van Voortdurende Aanpassing

Een Vergelijking tussen GPT-4 en de Nieuwe Cloudmodellen: Ontwikkelaarsworkflow

  • Na het uitvoeren van tests, besloot ik een snelle vergelijking te maken tussen de huidige GPT-4 en voornamelijk het turbomodel, en deze nieuwe Cloudmodellen. Ook wilde ik de ontwikkelaarsworkflow onderzoeken, aangezien ik verschillende projecten heb waarbij we open AI en de GPT-modellen gebruiken. De vraag was hoe gemakkelijk we daadwerkelijk kunnen overschakelen of modellen kunnen vervangen zonder al te veel gedoe. Ik heb hier wat code voor jullie, die ik ook beschikbaar zal stellen. Daarnaast heb ik twee services die verder gaan dan wat ik in deze video behandeld heb, maar wel waardevol kunnen zijn. Dit is namelijk hoe we grote taalmodellen opzetten voor al onze projecten bij Data Lumina. Ik heb een Azure open AI-service en een entropische service, en we zullen een eenvoudige opstelling maken met een systeemprompt en een eenvoudige instructie om een eenvoudige LinkedIn te maken.
Een Vergelijking tussen GPT-4 en de Nieuwe Cloudmodellen: Ontwikkelaarsworkflow
Een Vergelijking tussen GPT-4 en de Nieuwe Cloudmodellen: Ontwikkelaarsworkflow

De voordelen van gestructureerde output van taalmodellen

  • In dit artikel gaan we het hebben over hoe we een taalmodel kunnen gebruiken voor contentcreatie en waar ik specifiek in geïnteresseerd ben, is de gestructureerde output en kwaliteit van deze modellen. Onlangs is er een grote update geweest, waarbij de Jason mode werd geïntroduceerd door OpenAI. Voor mij persoonlijk was dit bijzonder nuttig omdat het mogelijk maakte om LM's te instrueren om betrouwbare Json output te leveren. Het is nu mijn standaard aanpak geworden om zelfs als ik geen Json output nodig heb, er toch om te vragen en de eerste sleutel als reactie te nemen. Dit komt omdat het vanuit een ontwikkelingsperspectief veel logischer is om objecten en data in Json-formaat te hebben. Zelfs bij eenvoudige taken is dit momenteel de voorkeursmethode geworden.
De voordelen van gestructureerde output van taalmodellen
De voordelen van gestructureerde output van taalmodellen

Het Belang van Informatieverstrekking via Chats

  • Laten we zeggen dat een chat, waar je informatie heen en weer stuurt, nog steeds erg handig kan zijn om gewoon het bericht te hebben, met bijvoorbeeld de eerste sleutel, en vervolgens wat extra metadata te verstrekken die je kunt vastleggen. De Turbo-modellen zijn echt mijn go-to voor dat doel. Dus als we dan komen bij de Azure open AI-service, en heb alsjeblieft geduld met me als ik een beetje van de hak op de tak ga - dit zal gewoon een demo zijn gebaseerd op mijn observaties, dus het kan wat minder gestructureerd zijn dan je gewend bent. Hier kun je naar het antwoordformaat kijken. Hier kun je letterlijk zeggen dat als je communiceert met open AI met de Turbo-modellen, je Json wilt en dat je wilt proberen te zien hoe dit werkt in een entropisch scenario met de nieuwe Cloud-modellen en het werkproces wilt vergelijken. Dat is in feite wat we hebben gedaan. Ik heb twee werkende voorbeelden waar we ook twee eindresultaten hebben, dus laten we deze snel doornemen om je echt allereerst te laten zien wat het verschil is.
Het Belang van Informatieverstrekking via Chats
Het Belang van Informatieverstrekking via Chats

Het gebruik van Azure OpenAI-service voor ontwikkelaars

  • Je kunt specificaties in de output opgeven, maar die zullen echt behoorlijk vergelijkbaar zijn. Het hangt een beetje af van de stijl en waar je van houdt, maar voornamelijk in termen van de workflow en zien of het voor mij als AI-ontwikkelaar zinvol is om misschien ook een account aan te maken voor Entropic en de API-sleutel te verkrijgen en te zien waar ik dat model kan opnemen. Dus dit wordt niet echt een video waarin ik al deze benchmarks ga bekijken en ga uitzoeken wat uiteindelijk het beste model is en waar het nu beter is. Dit zal gewoon een praktische conclusie zijn voor een ontwikkelaar om te gebruiken, zoals 'oké, wat betekent dit voor mij?' Dus dat gezegd hebbende, nogmaals, een beetje context geven over de Azure OpenAI-service die we gebruiken. Voor degenen onder jullie die het niet weten, Azure OpenAI is gewoon een manier om de OpenAI-modellen te gebruiken, maar dan via Azure, en je hebt een extra gevoel van beveiliging, wat voor de meeste van mijn klanten een vereiste is en daarom gebruiken we Azure OpenAI, maar het is nog steeds hetzelfde model.
Het gebruik van Azure OpenAI-service voor ontwikkelaars
Het gebruik van Azure OpenAI-service voor ontwikkelaars

Het geheim achter het creëren van boeiende LinkedIn-posts

  • Laten we eens kijken naar wat we hier hebben. Het is een eenvoudige opstelling. We initialiseren een class en koppelen alles. Dit zijn alle referenties. Vervolgens hebben we een eenvoudige functie om een chat afronding in één keer te doen. Daarna is er de functie om een reactie te genereren. We geven een systeemprompt, zeggen dat we een LinkedIn-post gaan schrijven, geven wat specificaties en willen de inhoud in JSON-indeling en met inhoudswoorden en titel. Vervolgens binden we dit alles samen in een berichtformaat met systeemregistratie en sturen het daadwerkelijk naar de API. En dit is waar de magie echt gebeurt. Aangezien we hebben opgedragen om dit als een JSON-object terug te geven, kunnen we het nu omzetten met Json loads en het teruggeven als een JSON-reactie. Als ik nu kijk naar het resultaat dat ik heb, zie ik dat ik gevraagd heb om een LinkedIn-post te schrijven en ik heb de inhoud, enkele zoekwoorden en ook een
Het geheim achter het creëren van boeiende LinkedIn-posts
Het geheim achter het creëren van boeiende LinkedIn-posts

Het Belang van Gestructureerde Output in Json-formaat

  • Als je bijvoorbeeld geautomatiseerde contentgeneratie zou creëren, waarbij je een Content Management System hebt om al deze waardevolle informatie op te slaan, dan is het toevoegen van gestructureerde output in Json-formaat van groot belang. In het Content Management System zou dit de titel kunnen zijn die je gebruikt voor dat bericht, met daarin de daadwerkelijke inhoud die we kunnen opvragen als een sleutel in deze dictionary. Dit is waarom gestructureerde output in Json-formaat van llms geweldig is. Laten we nu kijken hoe dat eruit ziet in entropic. Tot vanmiddag had ik nog nooit met de entropic API gewerkt, dus dit was allemaal nieuw voor mij. Gelukkig is het echter heel eenvoudig en lijkt het erg op hoe je werkt met open AI. Op hun website hebben ze enkele eenvoudige 'snel aan de slag'-handleidingen met Python, en daar zie je dat het een zeer vergelijkbare stijl heeft. Zelfs wat betreft de berichten is de configuratie precies hetzelfde. Geweldig om te zien dat zelfs concurrenten proberen dit te stroomlijnen.
Het Belang van Gestructureerde Output in Json-formaat
Het Belang van Gestructureerde Output in Json-formaat

Revolutionaire Modellen Geïntroduceerd door Entropic voor Developer Experience

  • In de wereld van developer experience heeft Entropic nu drie revolutionaire modellen geïntroduceerd. Deze modellen, genaamd Hiu, Sonet en Opus, beloven een vernieuwende ervaring te bieden aan ontwikkelaars. Hiu, hoewel nog niet beschikbaar, wordt gepresenteerd als het meest geavanceerde model. Vervolgens hebben we Sonet en Opus, waarbij de intelligentie toeneemt naarmate je hoger gaat, maar dit ook gepaard gaat met langzamere prestaties en hogere kosten. Entropic legt uit dat Sonet het meest gebalanceerde model is, terwijl Opus staat voor maximale kracht en kostenbesparing. Op dit moment kunnen ontwikkelaars kiezen voor Opus of Sonet als model. Het doel is om een kosteneffectieve oplossing te bieden die zowel krachtig als efficiënt is. De keuze tussen deze modellen zal afhangen van de specifieke behoeften en prioriteiten van elke ontwikkelaar.
Revolutionaire Modellen Geïntroduceerd door Entropic voor Developer Experience
Revolutionaire Modellen Geïntroduceerd door Entropic voor Developer Experience

Optimaliseer de Entropic API voor gestructureerde output

  • Ik was bezig met iets interessants en ik heb hier een tijdje mee zitten knutselen en ik wil dit graag met je delen omdat ik denk dat het erg nuttig zal zijn. De Entropic API heeft namelijk niet de gestructureerde outputparameter zoals het OpenAI-model dat wel heeft, maar er zijn een paar dingen die je kunt doen om het te optimaliseren. Je kunt hier wat voorbeelden zien van hoe je de output kunt beheersen. Bijvoorbeeld door simpelweg aan te geven wat je wilt via een prompt. Wat echter kan gebeuren, is dat je nog steeds rare resultaten krijgt waarbij het model bijvoorbeeld antwoord geeft in 'Jason'-output in plaats van 'Json'-output. Dat kan problemen veroorzaken, omdat de JSON-ladingen dan niet werken. Maar er is iets heel cools wat ik heb ontdekt, namelijk de 'prefilling' optie. Hiermee kun je als het ware de
Optimaliseer de Entropic API voor gestructureerde output
Optimaliseer de Entropic API voor gestructureerde output

Het opzetten van berichten met behulp van GPT-3

  • Als je een assistent hebt met een openingshaakje dat aangeeft 'hey, dit zou het begin van je antwoord moeten zijn met openinghaakjes', dan is de enige logische manier voor het model om dat te voltooien eigenlijk het verstrekken van Jason. Dit lijkt heel goed te werken. Ik heb wat experimenten uitgevoerd en ben geen problemen tegengekomen. Het opzetten van het bericht is heel eenvoudig. Je begint met het verstrekken van de systeemprompt, vervolgens voer je de gebruiker in waar je de prompt plaatst en daarna voegen we nog een medewerker toe. Daarna sturen we alles naar de API en krijgen we de reactie. Maar dan is er nog één ding dat we moeten doen: we moeten dat haakje weer toevoegen, want anders lijkt het een beetje omslachtig om het op deze manier te doen. Aangezien we al het openingshaakje hier hebben, zal de API het bericht feitelijk zonder het haakje teruggeven, dus je moet het weer samenvoegen zodat de Json kan worden geladen.
Het opzetten van berichten met behulp van GPT-3
Het opzetten van berichten met behulp van GPT-3

Het creëren van een gestructureerde JSON-reactie voor applicaties

  • Nu we een vergelijkbare opzet hebben gemaakt waarbij we een titel, trefwoorden en inhoud hebben, kunnen we hier dieper op ingaan. Als we dit vergelijken, denk ik dat beide sterke en zwakke punten zullen hebben. Het gaat vooral om het fijn afstemmen met voorbeelden en je eigen persoonlijke stijl. Op dit moment kunnen we echter verschillende modellen eenvoudig uitwisselen en dezelfde gestructureerde JSON-reactie krijgen voor een applicatie of project voor een klant. Dit is het overkoepelende doel dat ik wilde laten zien in deze korte video. Dit zal een doorlopend proces zijn, waarbij Google zich zal blijven ontwikkelen, OpenAI met GPT-5 zal komen, en CLA weer de strijd zal aangaan. Als ontwikkelaar is het belangrijk om met deze opzet te werken.
Het creëren van een gestructureerde JSON-reactie voor applicaties
Het creëren van een gestructureerde JSON-reactie voor applicaties

De kracht van eigen code bases en maatwerk wrappers in softwareontwikkeling

  • Naar het streven om zo min mogelijk abstractie te gebruiken, moet ik ook voorzichtig zijn met frameworks zoals Lang chain waar ik al meerdere problemen mee heb gehad omdat alles zo snel verandert. Door gewoon je eigen codebase te hebben, met je eigen services voor Azure, Google Cloud of andere platformen, behoud je veel meer controle. Je kunt snel kleine wrappers maken rond je eigen services die je vervolgens onderhoudt. Zijn deze nieuwe modellen beter? Zou je moeten overstappen? Wel, dat hangt ervan af. Als je naar de benchmarks kijkt, waarschijnlijk wel. Maar vanuit het perspectief van ontwikkelaars zal het nog steeds zijn: welk probleem probeer je op te lossen? Als je al volledig hebt ingezet op bijvoorbeeld OpenAI GPT-4, ga daar dan mee door. Maar overweeg misschien voor nieuwe projecten te experimenteren met deze opzet. Ik ga zeker door met experimenteren. Ik heb wat nieuwe projecten gepland waarbij ik waarschijnlijk beide benaderingen parallel zal evalueren. Dat gaat echt interessant worden. Dus als je een ontwikkelaar bent en je nog niet hebt aangemeld voor bijvoorbeeld Entropic, zou ik dat zeker aanraden.
De kracht van eigen code bases en maatwerk wrappers in softwareontwikkeling
De kracht van eigen code bases en maatwerk wrappers in softwareontwikkeling

Hoe te beginnen met freelance werken in data science en AI

  • Als je geïnteresseerd bent in het werken aan AI-projecten en freelance wilt werken, maar niet weet waar je moet beginnen, dan is het misschien tijd om Program Data Freelancer te bekijken. Program Data Freelancer is een platform dat data professionals, software engineers en AI-ingenieurs helpt om aan de slag te gaan met freelancen. Het is een tool die ik de afgelopen 5 jaar heb gebruikt om fulltime inkomen te verdienen en die ik ook anderen heb geholpen om hetzelfde te bereiken. Met vijfsterrenbeoordelingen van mensen die het programma hebben gebruikt en een geheel nieuwe versie die net is uitgebracht, is dit het moment om aan de slag te gaan. Als dit klinkt als iets voor jou, klik dan op de link in de beschrijving om meer te ontdekken.
Hoe te beginnen met freelance werken in data science en AI
Hoe te beginnen met freelance werken in data science en AI

Conclusion:

Ontdek hoe GPT-4 en de Entropic Cloudmodellen zich verhouden in een praktische vergelijking. Leer meer over de voordelen van gestructureerde output in JSON-formaat voor ontwikkelaars.

Q & A

GPT-4Entropic Cloudmodellenontwikkelaarsworkflowgestructureerde JSON-outputAI-ontwikkeling
Claude 3 versus GPT 4: Een Diepgaande Vergelijking van AI-modellenIs Anthropic's Claude 3 bewust of gevoelig? Ontdek de feiten!