Claude 3 versus GPT 4: Een Diepgaande Vergelijking van AI-modellen
By MattVidPro AI · 2024-03-22
In deze blog duiken we diep in de opkomst van Claude 3 en vergelijken we het met GPT 4. Ontdek de revolutionaire mogelijkheden en prestaties van deze AI-modellen.
De opkomst van Claude 3 in de wereld van AI-modellen: een diepgaande analyse
- Ik wil jullie er allemaal aan herinneren dat het bijna precies een jaar geleden is dat GPT 4 werd aangekondigd door OpenAI. Dit hier, kijkers, is mijn oorspronkelijke aankondigingsvideo van GPT-4, uitgebracht op 15 maart 2023. Vandaag is het 5 maart 2024 en het is de dag na de lancering van een grote concurrent van OpenAI, genaamd Claude 3. Dit is een AI-groot taalmodel, zeer vergelijkbaar met GPT-4 van OpenAI, maar dan beter. Houd in gedachten, kijkers, dat dit iets is waar ik gisteren echt over wilde praten, maar dat kon ik niet vanwege het feit dat ik me een beetje grieperig voelde. En zoals je vandaag nog steeds kunt zien, ben ik nog niet 100%, maar ik ga mijn best doen. Ja, gisteren kondigde anthropic Claude 3 aan, de volgende generatie van hun AI-modellen. Het bestaat uit drie hypermoderne modellen: Opus, het grootste model, Sonet, hun middelgrote model, en Hau, hun kleine model dat toonaangevende prestaties levert op het gebied van redeneren, wiskunde, codering, meertalig begrip en visuele mogelijkheden. Nu heeft Claude dus ook Visualisatie, net als GPT-4. We zullen vandaag diep ingaan op Claude 3 en de benchmarks bekijken, maar ik wil de context voor het grotere geheel schetsen, omdat er momenteel gekke dingen gaande zijn op Twitter. Jeremy Howard, medeoprichter van Answer, zegt dat het blijkbaar een grote week gaat worden, en Logan, GPT, een onlangs vertrokken medewerker van OpenAI, zegt alleen maar 'bevestigd'. Dus misschien weet hij iets over OpenAI dat wij niet weten. Misschien een hint naar GPT-5. En natuurlijk is dat waar alle reacties over gaan, iedereen is er erg enthousiast over. Dus het zou wel eens een veel grotere week kunnen worden dan alleen de lancering van Claude 3. Natuurlijk moest OpenAI om een of andere reden iets uitbrengen op dezelfde dag als anthropic, dus ze hebben gewoon chat GPT gezegd.
De opkomst van Claude 3 in de wereld van AI-modellen: een diepgaande analyse
Revolutie in AI: Vergelijking tussen Claude 3 en GPT 4
- Je kunt nu reacties op jou lezen, een vrij mooie functie denk ik. Maar terug naar Claude 3 van Anthropische AI, dat deze week waarschijnlijk overschaduwd kan worden door een GPT 5. Je kunt zien dat het qua kennis op universitair niveau gemakkelijk GPT 4 overtreft en ook in graduate-level redenering. Het verslaat GPT 4 ook gemakkelijk op basisschoolwiskunde en wiskundig probleemoplossing. Het steekt er echt met kop en schouders bovenuit wat betreft meertalige wiskunde en hetzelfde geldt voor code, wat behoorlijk belangrijk is. 67 hier tegenover 0 voor GPT 4 en 85% voor Claude 3's Opus. Dit is allemaal berekend door de grote Claude 3. Het model in redenering over tekst is hier drie punten beter dan bij GPT 4 en hetzelfde geldt voor gemengde evaluaties. Dus ja, het is absoluut een beter model dan GPT 4. Ik denk dat dat nu wel duidelijk is. Houd ook rekening met deze andere modellen: de Sonet en Hiq kleinere modellen zijn ook behoorlijk competitief met GPT 4, waarbij Hiq net onder het niveau van GPT 4 zit en vrijwel alle benchmarks behalve in code veel beter presteert. Claude 3 Hiq zou het ultieme codeermodel kunnen zijn als je grote hoeveelheden code wilt genereren. Natuurlijk is Hiq veel goedkoper dan zelfs GPT 3.5 als we naar de prijs kijken. Sonet lijkt op veel verschillende gebieden rechtstreeks de strijd aan te gaan met GPT 4, waarbij GPT 4 in sommige gebieden wint en Sonet in andere, maar zoals ik al zei is Opus gewoon beter dan GPT 4. Ik wil ook snel ingaan op enkele communityreacties. Matt Wolf merkt op dat Claude 3 echt heel goed is voor Wolf. Opus bouwde een werkende miname in slechts één prompt en Sonet bouwde het spel in twee prompts. Chachi PT had nog steeds moeite, zelfs na meerdere prompts, maar beide versies presteerden beter dan Chat GPT bij het samenvatten van lange documenten en waren net zo goed als
Revolutie in AI: Vergelijking tussen Claude 3 en GPT 4
De opkomst van Haiku en de potentie van kleine modellen in AI
- ChatGPT blinkt uit in het beschrijven van afbeeldingen, creatief schrijven en vermijden van vooringenomenheden. In Wolf's test overtrof ChatGPT beide versies van Claude met een complex logisch probleem, en hij zal vandaag ook een video uitbrengen. Sully brengt een interessant punt naar voren op Twitter en vraagt zich af of Haiku niet elk klein model heeft weggevaagd. Haiku behaalt bijna even goede resultaten als GPT-4 maar is geprijsd op 25 cent per miljoen tokens, wat GPT-3.5 en open-source oplossingen ver achter zich laat. Haiku is 40 keer goedkoper dan GPT-4 Turbo en bijna net zo goed. Dit zou wel eens het moment kunnen zijn waarop Anthropics de troon van OpenAI overneemt op het gebied van prijs-kwaliteitverhouding. Matt Schumer merkt op Twitter op dat met Claude en Gemini 1.5 5 Pro het tijdperk van contextvensters van meer dan 1 miljoen tokens officieel is aangebroken. Ze tonen een nauwkeurigheid van meer dan 99% met contextvensters van meer dan 200.000 tokens, en dit wordt bereikt met een 'naald in een hooiberg'-evaluatie. Als dit model al zo goed is met 200.000 tokens, hoe zal het dan presteren bij bijvoorbeeld 1 miljoen tokens? Het is interessant dat ze aanvankelijk 200.000 tokens aanbieden, maar zeggen dat alle drie modellen in staat zijn om invoer van meer dan 1 miljoen tokens te accepteren. Een zeer boeiend punt van Matt Schumer.
De opkomst van Haiku en de potentie van kleine modellen in AI
Revolutionaire Economische Analyse met Anthropics Claude 3
- Voordat we daadwerkelijk in dit model duiken en het testen, zijn er enkele snelle voorbeelden die behoorlijk gaaf zijn. Ze hebben eigenlijk een aantal demovideo's die ik wil bekijken, zodat we dit model in actie kunnen zien zoals Claude het portretteert of zoals Anthropics het portretteert. Allereerst gaan we Claude 3 bekijken als een economisch analist om te zien of Claude en een paar vrienden ons kunnen helpen om de wereldeconomie in enkele minuten te analyseren. Ik heb Claude 3 Opus gevraagd, dat is het grootste model in de nieuwe Claude 3-familie van Anthropics, om naar de GDP-trends voor de VS te kijken en een markdown-tabel te maken van wat het ziet. We hebben Opus en alle andere modellen in de Claude 3-familie uitgebreide training gegeven in het gebruik van tools, en een van de belangrijkste tools die het gebruikt is deze webview-tool. Het gaat naar een URL, bekijkt wat er op de pagina staat en omdat het multimodaal is, kan het de informatie op die pagina gebruiken om complexe problemen op te lossen. Hier is de markdown en het is belangrijk om op te merken dat Claude geen directe toegang heeft tot deze cijfers. Het kijkt letterlijk naar dezelfde browser die jij en ik zien, kijkt naar de trendlijn en probeert te schatten wat de exacte cijfers zijn. Laten we eens kijken hoe nauwkeurig het was. We hebben het model gevraagd om een plot van de gegevens te maken en het heeft deze tweede tool, deze python-interpreter, gebruikt om de code uit te schrijven en vervolgens de afbeelding voor ons weer te geven. En hier is de afbeelding, kijk, het heeft zelfs handige tooltiptekeningen toegevoegd om enkele van de belangrijkste pieken en dalen in het afgelopen decennium of twee van de Amerikaanse economie uit te leggen. We kunnen die grafiek vergelijken met de daadwerkelijke gegevens en het blijkt behoorlijk nauwkeurig te zijn, het zit eigenlijk binnen 5% nauwkeurigheid. En trouwens, de transcriptie van Claude hier komt niet alleen voort uit zijn voorkennis van het Amerikaanse BBP, we hebben het geprobeerd met een
Revolutionaire Economische Analyse met Anthropics Claude 3
De toekomst van de wereldeconomie: Voorspelling van het BBP in 2030
- Een groot aantal verzonnen grafieken van het BBP en de transscriptie-accuraatheid was gemiddeld binnen 11%. Vervolgens hebben we het model gevraagd om wat statistische analyse te doen en vooruit te projecteren in de toekomst, simulaties uit te voeren om te zien waar het BBP van de VS naartoe zou kunnen gaan. We kunnen zien dat het deze analyse heeft uitgevoerd met behulp van Python en in staat is om deze Monte Carlo-simulaties uit te voeren om te zien hoe het bereik van de mogelijkheden van het BBP eruit zou kunnen zien voor het komende decennium. Maar ik vraag me af of we verder kunnen gaan. We gaan het model vragen om een meer gecompliceerde vraag te analyseren, namelijk hoe het BBP zou kunnen veranderen in alle grootste wereldeconomieën. En om het daarbij te helpen, geven we het nog een extra tool genaamd 'dispatch sub-agents'. Dit stelt het model in staat om het probleem op te splitsen in veel sub-problemen en vervolgens instructies te geven aan andere versies van zichzelf om te helpen bijspringen. De modellen kunnen dan samen een complexere taak voltooien. Hier zie je dat het deze prompt heeft geschreven en zeer nauwkeurige instructies heeft gegeven die het wil dat de andere modellen volgen, inclusief een formaat voor de gegevens die het hoopt terug te krijgen. Het heeft een versie van deze prompt doorgestuurd naar een model dat naar de VS kijkt, een voor China, een voor Duitsland, Japan enzovoort. We kunnen zien aan deze voortgangsbalken dat de sub-agentmodellen nu de ingestelde taak voltooien voor elk van de individuele economieën. Ze gaan naar de relevante webpagina's, halen de informatie op, voeren de code uit om het te analyseren, net zoals we hebben gezien in het eerdere voorbeeld van de VS, maar allemaal parallel. Laten we snel vooruit spoelen om te zien wat het model heeft geproduceerd. Je ziet dat het de analyse heeft uitgevoerd, het heeft een pre- en post-taartdiagram geproduceerd van hoe het verwacht dat de wereldeconomie eruit zal zien in 2030 versus 2020, en het heeft ons een schriftelijke analyse gegeven.
De toekomst van de wereldeconomie: Voorspelling van het BBP in 2030
Revolutionaire Vision Capabilities van Moderne AI-modellen
- Ook probeert het variabele voorspellingen te doen die verband houden met de statistische analyse die het heeft uitgevoerd. Het vertelt ons dat het denkt dat het aandeel van het BBP van bepaalde economieën zal veranderen en welke groter of kleiner zullen zijn tegen 2030. Dus daar hebben we het, complexe multi-staps multimodale analyse uitgevoerd door een model dat sub-agenten kan creëren om nog meer taken parallel te laten uitvoeren. Uit alles wat ik online heb gezien van Claude 3 en gehoord heb mensen erover praten, heb ik nog nooit iemand dit aankomende toolgebruik met functieoproepen zien noemen. Dat is iets dat we al hebben gezien. Maar de mogelijkheid om meerdere AI-agenten tegelijk in te zetten, is tot nu toe niet iets wat we hebben gezien bij de grote spelers. Ik bedoel, we hebben het zeker al wel eens gezien en het heeft in het verleden gewerkt, zij het met wisselend succes, maar we hebben het nog niet gezien bij een van de grote spelers zoals Meta AI, Google, OpenAI of Anthropic. Dit is absoluut een primeur en OpenAI zou daar wel eens het meest bang voor moeten zijn. De mogelijkheid om meerdere agenten tegelijk in te zetten met deze zeer capabele GP4-models of beter om allerlei soorten functieoproepen te doen en dat allemaal in één keer samen te vatten, is een van de meest geavanceerde tools en probleemoplossingen die ik ooit heb gezien een groot taalmodel doen. Dat is multimodaal punt. Dat is absoluut verbazingwekkend. Ik denk dat deze vraag die we aan het einde van de video zullen behandelen, zojuist mijn antwoord heeft gegeven. Nu gaan we eens kijken naar de vision-capaciteiten van een van de snelste en meest betaalbare modellen ter wereld die in staat zijn tot vision. Om dit te demonstreren gaan we door duizenden gescande documenten bladeren in een kwestie van minuten bij de Library of Congress Federal Writers.
Revolutionaire Vision Capabilities van Moderne AI-modellen
Haiku: De Toekomst van Transcriptie en Metadata Extractie
- Project is een verzameling van duizenden gescande transcripten van interviews tijdens de Grote Depressie. Dit is een goudmijn van ongelooflijke verhalen en echte helden, maar het zit opgesloten in lastig toegankelijke scans van transcripten. Stel je voor dat je een documentairemaker of journalist bent, hoe kun je door deze duizenden rommelige documenten spitten om het beste bronmateriaal voor je onderzoek te vinden zonder ze allemaal zelf te lezen? Aangezien deze documenten gescande afbeeldingen zijn, kunnen we ze niet in een Texton llm invoeren en deze scans zijn rommelig genoeg om een uitdaging te vormen voor de meeste toegewijde OCR-software, maar gelukkig is Haiku van nature vision-capabel en kan het omliggende tekst gebruiken om deze afbeeldingen te transcriberen en echt te begrijpen wat er aan de hand is. We kunnen ook verder gaan dan eenvoudige transcriptie voor elk interview en Haiku vragen om gestructureerde Json-uitvoer te genereren met metadata zoals titel, datum, trefwoorden, maar ook wat creativiteit en oordeelsvermogen gebruiken om te beoordelen hoe boeiend een documentaire het verhaal en de personages zouden zijn. We kunnen elk document parallel verwerken voor prestaties en met de zeer beschikbare API van Claude dit op massale schaal doen voor honderden of duizenden documenten. Laten we eens kijken naar wat voor gestructureerde uitvoer Haiku kan leveren: Haiku is in staat om niet alleen te transcriberen, maar ook creatieve elementen zoals trefwoorden naar boven te halen. We hebben deze verzameling van vele scans omgezet in rijke trefwoordstructuurdata. Stel je voor wat een organisatie met een kennisbank van gescande documenten zoals een traditionele uitgever, zorgverlener of advocatenkantoor kan doen. Haiku kan hun uitgebreide archieven en werkzaamheden versterken. We nodigen je uit om het uit te proberen en te zien wat je ermee kunt bouwen. De mogelijkheid om honderden verschillende afbeeldingen tegelijk te bekijken in vergelijking met de schamele 4 die je tegelijk met GPT voor vision kunt bekijken, is behoorlijk indrukwekkend.
Haiku: De Toekomst van Transcriptie en Metadata Extractie
Het Verbazingwekkende Claude 3: Een Revolutionaire Taalpartner
- Geweldig en' het vermogen om alles nauwkeurig over te schrijven en vervolgens al dit extra werk te doen is behoorlijk geweldig. Dit vereist een hoog niveau van contextcoherentie, waar we eerder in de video al over hebben gesproken. Ik denk dat dit in feite weer een stapje verder is dan wat we momenteel krijgen met gp4 op het gebied van visuele mogelijkheden. Het uploaden van zoveel documenten tegelijk, ze transcriberen en ze allemaal gebruiken in een grote context, dat is behoorlijk fascinerend. Niet zo gek als het laatste wat we zagen, maar nog steeds behoorlijk geweldig en absoluut toonaangevend in de industrie. Nu bekijken we Claude 3 als een taalpartnerschapsagent die met je zal praten in de taal die je probeert te leren. Ik koos voor Spaans en wilde dat het mijn onvolmaakte Spaans zou nemen en me zou helpen het te verbeteren. Dus ik besloot dat ik wilde dat het een paar dingen deed. Ik wilde dat het mijn bericht, dat in een soort van onvolmaakt Spaans zal zijn, zou nemen en zou schrijven wat het denkt dat ik bedoelde in het Engels. Vervolgens vroeg ik het om het ideale leerbericht terug te schrijven, wat gewoon mijn bericht is zoals het eigenlijk in het Spaans had moeten worden geschreven, zodat ik de ideale vorm hiervan kan zien. Daarna vroeg ik het om een lerarenantwoord te schrijven, gewoon een antwoord aan mij in het Spaans zodat ik het gesprek kan voortzetten. Hier volgt het format dat ik heb gevraagd, dus het herhaalt het bericht dat ik probeerde te sturen terug naar mij in het Engels, vertelt me hoe ik het had moeten zeggen, corrigeert enkele grammaticale problemen in mijn verzoek, en reageert vervolgens op mij in het Spaans en vraagt me waar ik vandaan kom. Stel je nu voor dat ik een bepaald woord niet ken in het Spaans, maar het toch wil zeggen. Dan zal ik dat woord gewoon in het Engels tussen vierkante haken opnemen en hopelijk
Het Verbazingwekkende Claude 3: Een Revolutionaire Taalpartner
De veelzijdigheid van Sonet als taalpartner
- Het zal het gewoon voor me vertalen en stel dat ik vastloop omdat ik de boodschap die het naar me heeft gestuurd gewoon niet begrijp, dan kan ik het vragen om die boodschap voor me te vertalen naar het Engels en dan kan ik dat lezen en er weer in het Spaans op reageren, waardoor de dialoog wordt voortgezet. Als laatste stap zou je Sonet kunnen vragen om een kleine quiz voor je te maken op basis van de dingen waarover je hebt gediscussieerd, dus hopelijk is dat een nuttige aanwijzing als je geïnteresseerd bent om Sonet als taalpartner te gebruiken. Ik zou zeggen dat het mild indrukwekkend was en het weet zeker andere talen en de convergenties daartussen, maar ik zou dat niveau van prestatie hoe dan ook verwachten. Ze hebben hier een leuke blogpost als je wat dieper op de zaken wilt ingaan, maar we hebben echt de belangrijkste punten aangestipt, geloof ik. Als je toegang wilt krijgen tot de betere Cloud Opus, dan is dat 20 dollar per maand, hetzelfde als Chad GPT plus. Ik vind eerlijk gezegd dat het een beetje te veel is, gezien het feit dat Chad GPT plus veel functies heeft, maar misschien is het de moeite waard als ze meer functies gaan toevoegen. Laten we beginnen met een hele eenvoudige afbeeldingstest. Ik ga mijn logo uploaden en zeggen: beschrijf deze afbeelding voor mij. Dus, bij het testen van Sonet zien we hier dat de beeldherkenning niet zo goed is als die van GPT-4S, maar nogmaals, dit is de gratis versie. Het is een schattig en speels 3D-gestileerd karakterrobot met een geel lichaam, een glimlachende uitdrukking en gebogen ogen. Het heeft een rechthoekig gebied dat een vizier is, maar het denkt ook dat het witte armen of uitsteeksels aan de zijkant heeft, wat ik aanneem dat die stukjes een deel zijn van de headset, en dat is een soort hallucinatie of grens...zie met GPT-4 Vision. Laten we kijken of we...
De veelzijdigheid van Sonet als taalpartner
Het beeld van de glimlachende citroen - Opus vs. Vision AI
- Bijwerken naar Opus als dat verbetert nu we op Opus zitten, het meest intelligente model. We zullen dezelfde exacte prompt proberen en we krijgen een veel beter resultaat. De afbeelding toont een 3D-gerenderd personage dat lijkt op een schattige glimlachende citroen of citrusvrucht. Absoluut waar, met een afgerond citroenvormig lichaam in levendige gele kleur. Bovenop zit een groen blad, en het meest opvallende kenmerk is de zwarte vizier of scherm dat de bovenste helft van het lichaam bedekt en dient als het gezicht van het personage, met een eenvoudige glimlach erop. Oké, deze wordt niet direct op het vizier weergegeven, dus daar moeten we wat punten voor aftrekken. De glanzende, gladde textuur zou ik correct noemen, zeer indrukwekkend. Als we het direct vergelijken met gp4 Vision krijgen we een zeer vergelijkbaar resultaat: gestileerd citroenpersonage tegen een levendige groene achtergrond, met een enkel blad bovenop en cartoonachtige wit omrande brilglazen die bedekken waar de ogen zouden zijn. Ik zou zeggen dat dit deel van de beschrijving waar het over de brilglazen gaat, iets nauwkeuriger is dan de beschrijving van Anthropics. Over het algemeen liggen ze echter bijna gelijk en dit is een vrij lastige afbeeldingsprompt. Nu ga ik een foto van mijn hond uploaden en vragen wat voor hondenras het is. Dit is iets waar Google de vorige keer niet in slaagde. Oh, interne serverfout. Oh, kom op, we kunnen hier niet de chat GPT-niveau servers hebben met Claude, vooral als je 20 dollar per maand betaalt. Oké, het hondenras is eindelijk door en het is absoluut correct, een zeer nauwkeurige beschrijving. Dus dat was een wat eenvoudigere test, maar nog steeds moeilijk om een exact ras te bepalen. Ik wil dat ook eens proberen met Sonet en Sonet krijgt het ook correct, wat ik graag zie. De mogelijkheden voor beeldherkenning zijn echt behoorlijk goed, wat zwaarder weegt, een pond veren of
Het beeld van de glimlachende citroen - Opus vs. Vision AI
De Fysica Achter Een Pond Fotonen en Een Pond Stenen
- Fotonen of een pond stenen, wat gebeurt er als we dit voorleggen aan Opus? Dit is een beetje een lastige vraag. Oh wow, het heeft het juist! Ik vind het geweldig om te zien dat een pond een eenheid van massa is en geen gewicht. Fotonen zijn massa-loze deeltjes, dus het is eigenlijk niet zinvol om te praten over een pond fotonen. Oh mijn God, het speelt het spelletje mee! We zouden kunnen zeggen dat een pond fotonen zwaarder is in de zin dat fotonen energie hebben en energie equivalent is aan massa volgens de beroemde vergelijking van Einstein, E=mc². De energie van een foton hangt af van zijn frequentie. Als we uitgaan van een frequentie van groen licht, dan heeft een enkel foton een energie van ongeveer 4x10 tot de 19 joule. Door een pond om te rekenen naar kilogram en de vergelijking E=mc² te gebruiken, komen we uit op ongeveer 2x10 tot de 31ste fotonen die equivalent zijn aan een pond massa. Een pond fotonen vertegenwoordigt een enorme hoeveelheid energie, veel meer dan de chemische energie opgeslagen in een pond stenen. Wow! Als er iemand goed is in wiskunde, laat me weten of dat klopt, want ik zou het niet weten. Ik ben echt onder de indruk. Laten we nu dezelfde trucvraag aan GPT-4 voorleggen: weegt een pond fotonen en een pond stenen evenveel? Beide wegen een pond, echter is het concept van het wegen van fotonen lastig omdat fotonen deeltjes van licht zijn en geen massa hebben in de traditionele zin. Ze hebben energie. Oké, dus het haalt weer de vergelijking E=mc² aan en legt het wat eenvoudiger uit. Ik weet niet of ik de reactie van GPT-4 of Opus beter vind. Ik denk dat deze interessanter is omdat het de wiskunde toepaste. Als deze berekening juist is, zou het behoorlijk leuk zijn. Het probeerde eigenlijk de vraag meer aan te pakken, wat heel interessant is.
De Fysica Achter Een Pond Fotonen en Een Pond Stenen
De opkomst van AI-schrijvers: GPT-4 versus CLAE-3
- we gaan hier wat zeer specifieke autogebaseerde kennis behandelen, goed we zullen licht beginnen hier ik ga proberen een zin af te maken, tot nu toe gaat het goed geef wat echt solide informatie over iets vrij subtiels nu maak dit af oh we hebben het eigenlijk hier laten breken dit is bijna nauwkeurig echter deze informatiezin is onjuist als het echt subtiel wordt kan het nog steeds in de war raken dus dat is belangrijk om op te merken augustus 2023 is de trainingsdata-einddatum dat is niet al te slecht over het algemeen ben ik zeer onder de indruk van Claude 3 ik denk dat Opus waarschijnlijk een beetje beter is dan GPT-4 echter de beeldmogelijkheden lijken eigenlijk meer gelijk op te gaan dan hun benchmarks zouden willen zien ik denk dat het enorme voor clae 3 zal zijn dat vermogen om informatie op zo'n nauwkeurige manier te analyseren door gebruik te maken van andere agenten die eerste kleine demovideo die we zagen was absoluut verbluffend nu cirkelend naar wat ik eerder op Twitter noemde ik zei zal clae 3 Open AI dwingen om gp5 af te zetten Nathan Lance zegt ik denk het wel Sean Ralston hier zegt Opus-prijzen zijn behoorlijk gek veel mensen zeggen nee ik denk dat ze eerst een GPT 4.5 zullen uitbrengen en eerlijk gezegd wist ik niet wat mijn persoonlijke antwoord was tot ik die video zag het feit dat anthropic clae 3 goed laat werken met meerdere agenten tegelijk in staat om werk te verdelen en weet je een potentieel contextvenster van een miljoen tokens is behoorlijk enorm ik denk dat dat iets is dat Open AI hier op zijn minst in de relatief nabije toekomst zou dwingen en als wat we aan het begin van de video zagen met een kleine hint van een ex-Open AI-medewerker GPT-5 zou heel goed in de buurt kunnen zijn en agenten zullen naar mijn mening het thema zijn voor 2024 laat me weten wat je ervan vindt in de reacties hieronder maar enorm bedankt voor het kijken ik zie je in de volgende en tot ziens
De opkomst van AI-schrijvers: GPT-4 versus CLAE-3
Conclusion:
De opkomst van Claude 3 toont mogelijk nog meer potentieel dan GPT 4, met zijn multi-agent benadering en geavanceerde mogelijkheden. De concurrentie tussen deze AI-modellen belooft een boeiende ontwikkeling in de wereld van artificiële intelligentie.