クロードオーパスとGPT4 - 実用的なレビュー(コード例付き)
By Dave Ebbelaar · 2024-03-22
最新のAIモデルであるクロードオーパスとGPT4を比較してみました。こちらでは、プログラムコードの例を交えながらその実用性を検証します。
AIエンジンニアの視点:新しいAIモデルのリリースと今後の展望
- ダブです。もしAIに興味があるなら、ブラウザを開いたり、スマートフォンを手に取ったりしたら、最新のクラウド3モデルファミリーのリリースを目にしたことでしょう。AIの領域では何が起こっているか、なかなかついていけないですよね。二週間前にはGoogleがgp4をさまざまな領域で打ち負かしていましたが、いまではentropicが再び、さまざまな新しいアップグレードを主張しています。私は現在、クライアントのために大規模言語モデルを専門的に使用しているAIエンジニアとして、将来にわたって常に切り替えて適応しなければならないと感じています。ある種のユースケースに最適なモデルは何かを見極めるために、パフォーマンス、知能、速度、コストなどを考慮しなければならないからです。これまでは、クライアントのためにgp4とGPT 3.5を主に使用してきましたが、今ではclthにもアクセスできる ようになり、この新たな主張もあります。
AIエンジンニアの視点:新しいAIモデルのリリースと今後の展望
比較と開発ワークフロー:GPT-4と新しいクラウドモデルの違い
- これらのテストのすべてを見て、現在のGPT-4と主にターボモデルとこれらの新しいクラウドモデルの違いについて、そして開発者のワークフローについても比較してみることにしました。多くのプロジェクトを持っている方々もOpenAIやGPTモデルを使用しているかもしれませんが、実際にモデルを簡単に切り替えたり交換したりすることがどれだけ容易か、複雑さを避けながら行うことができるのかについても検証します。こちらにコードを用意しておりますので、ご利用いただけます。また、このビデオでカバーする内容以外にも、役立つと考えられる2つのサービスを準備しております。これらはデータルミナで取り組んでいるすべてのプロジェクトに対して大規模な言語モデルをどのようにセットアップしているかを示しています。Azure OpenAIサービスとEntropicサービスがあり、シンプルなセットアップを行い、システムプロムとシンプルな指示を提供して簡単なリンクトインを作成します。
比較と開発ワークフロー:GPT-4と新しいクラウドモデルの違い
LLMを使用したコンテンツ作成の質向上
- このポストでは、コンテンツ作成にLLMを使用することを紹介します。私が特に興味を持っているのは、これらのモデルの構造化された出力の品質です。最近、OpenAIの大幅なアップデートの1つであるJasonモードがリリースされました。少なくとも私にとっては、これは非常に便利でした。LLMに信頼性のあるJson出力を提供するよう指示することは、プロンプトを使って周り回る必要がなくなりました。今、私が大規模な言語モデルとやりとりする際、Json出力を明示的に必要としなくても、依然として求めます。そして、その最初のキーを取得してそれがレスポンスとなります。なぜそうするのかというと、開発の観点から見て、Json形式でオブジェクトやデータを持っている方がはるかに理にかなっているからです。
LLMを使用したコンテンツ作成の質向上
情報の送信と受信:メッセージの重要性
- たとえば、チャットBでは、情報をやり取りしていますが、最初のキ ーのメッセージを持っているだけでも非常に役立つことがあります。追加のメタデータを提供して、ログに記録できるようにすることも重要です。これまで私が利用してきたのは、ターボモデルです。次に、Azure OpenAI Surfaceに移ります。少し飛び回っているかもしれませんが、これは私の観察に基づくデモになりますので、あなたが慣れているものよりも少し構造化されていないかもしれません。ここでは、返信形式を見ることができます。OpenAIとターボモデルをやり取りする際に、Jsonを指定して、新しいクラウドモデルとのワークフローを比較してみたいと思います。具体的には、2つの動作する例と、2つの最終結果がありますので、これらを簡単に見てみましょう。まず、違いが何かをお見せします。
情報の送信と受信:メッセージの重要性
Azure OpenAI サービスのコンテキスト
- 出力で仕様できるが、その内容はかなり似ている。スタイルや好みにもよるが、主にワークフローの観点から見ると、私がAI開発者として、これらのモデルと一緒に作業する人間にとって、今、EntropicにサインアップしてAPIキーを取得し、そのモデルをどこに組み込むことができるかを見極めることが意味があるかどうかを確認する、ということだ。この動画は、これらのベンチマークをすべて見て、最終的に最適 なモデルとその利点を把握するものではなく、開発者の実用的な収穫に焦点を当てたものになる。つまり、Azure openaiサービスについて少しの文脈を与えると、Azure openaiは、OpenAIモデルをAzureを介して使用する方法であり、ほとんどの顧客にとっては必須のセキュリティが追加されている。だからこそ、私たちはAzure openaiを使用している。しかし、それでも同じモデルが使われている。以上を踏まえて、
Azure OpenAI サービスのコンテキスト
Pythonコードの解説:APIを使用してLinkedInの投稿を生成する方法
- こちらでは、Pythonコードを使用してLinkedInの投稿を生成する方法について解説します。まず、簡単なセットアップから始めています。クラスを初期化し、すべての資格情報をリンクします。次に、チャット完了を行う単発の関数があります。そして、システムプロンプトを使用して、LinkedInの投稿を書くことになっている指示を与えます。さらに、Json形式で出力するように指定し、コンテンツのキーワードとタイトルを返します。最後に、APIにデータを送信します。それが、マジックが起こるところです。指示に従いJsonオブジェクトとして返すことができるため、Json loadsを呼び出してJson形式で出力します。これにより、LinkedInの投稿のコンテンツとキーワード、タイトルが取得できます。
Pythonコードの解説:APIを使用してLinkedInの投稿を生成する方法
エントロピックAPIとは何ですか?
- 例えば、自動コンテンツ生成のようなものを作成する場合、情報を格納したいコンテンツ管理システムがあるとします。そこにすべてを格納したいと思うかもしれません。情報を追加するのは非常に有益です。コンテンツ管理システムには、その投稿に使用するタイトルがこれになります。しかし、実際のコンテンツは、この辞書内のキーとしてクエリを行うことができます。したがって、LMSからのJson形式の構造化された出力が素晴らしい理由です。さて、それがエントロピックでどのように見えるかを見てみましょう。今日の午後まで、私はエントロピックAPIを使ったことがありませんでした。ですが、幸いなことに非常にわかりやすく、OpenAIとの使い方も非常に似ています。ウェブサイトでは、Pythonと簡単に始める方法が記載されており、スタイルも非常に似ています。メッセージに関しても同様で、競合他社であるにもかかわらず、効率化を図ろうとしています。
エントロピッ クAPIとは何ですか?
新しい機械学習モデルの紹介
- 開発者体験とここでは、もし今、モデルを見てみると、現在のモデルを見てみることができます。彼らは3つのモデルを紹介しました。HIUはまだリリースされていませんが、近日中に利用可能になります。SonetとOpusがあります。より高度になるにつれて、よりインテリジェントになりますが、より遅く、コストがかかります。彼らは基本的に説明しています。Sonetは最もバランスの取れたバージョンで、これはまさに最高の性能です。これは費用対効果の高いモデルになるでしょう。現在、OpusまたはSonetを選択することができます。ここでも、ここで行っていることも分かります。実際に少し拡大してみましょう。ここで行っていることをよく見ることができるようにしましょう。OpenAIのバージョンと非常に似ていますが、今回はentropicを使用しています。システムプロンプトがまったく同じで、メッセージを作成しますが、ここでは
新しい機械学習モデルの紹介
エントロピックAPIの出力を制御する方法
- 興味深いことをしていました。しばらくこれをいじっていましたが、非常に役立つと思うので、これを共有したいと考えています。エントロ ピックAPIには、Open AIモデルのような構造化された出力パラメーターがないのが特徴ですが、それでもいくつかの工夫をすることで制御することができます。例えば、出力を制御する方法の例を示すことができます。時々、JSON出力をリクエストしても、モデルがそのように返答してくれないことがあります。しかし、ここには非常に興味深い方法があります。それは、プリフィリングオプションを利用することです。これにより、
エントロピックAPIの出力を制御する方法
チャットボットAPIを使用してメッセージを送信する方法
- 開きカッコの意味を示すアシスタントは、回答の開始を示すべきであり、少なくとも私の経験では、このようにしてモデルがその完了からジェイソンを提供するのが唯一の論理的な方法であるようです。これは非常にうまく機能する傾向があり、いくつかの実験を行いましたが、その際に問題は発生しませんでした。では、メッセージを設定する方法は非常にシンプルです。システムプロンプトを提供し、次にユーザーがプロンプトを入力し、さらにもう一つを追加します。そして、APIにすべてを送信し、応答を受け取りますが、その後やらなければならないことが1つあります。このカッコを戻す必要があるのです。これは少し手間がかかるように思えますが、実際にはこうするしかないのです。というのも、ここにすでに開きカッコがあるので、APIは本質的にそのカッコなしでメッセージを返します。したがって、Jsonをロードするためには再度それをくっつける必要があります。そして、ここに来て
チャットボットAPIを使用してメッセージを送信する方法
革新的なJson応答の構築
- 同じような構造を持っていることがわかりました。こちらを見てみましょう。まだ実行中ですね。今、タイトルとキーワード、そして実際にコンテンツを持つ類似したセットアップがあります。これを比較すると、単語ごとにどちらが良いかを実際にレビューするつもりはありませんが、どちらもそれぞれ強みや弱みがあります。具体例や独自のスタイルで微調整することが重要ですが、まずは異なるモデルを簡単に切り替えて、同じ構造化されたJson応答を得ることができるセットアップを作成しました。これが全体的な目標であり、この素早いビデオでお見せしたかったことです。これは継続的な取り組みとなるでしょう。Googleが進化し、OpenAIがGPT 5を提供し、CLAが再び競争に参加するでしょう。開発者として、このような設定に取り組むべきであると思います。
革新的なJson応答の構築
フレームワークを使わず、自分のコードベースを活用するメリット
- できるだけ抽象化を最小限に抑えることを心がけているため、Lang chainなどのフレームワークにも注意を払います。すでに何度も問題に遭遇しているため、自分自身のコードベースを持つことが重要です。AzureやGoogleなど、自ら選んだサービスについては、自分が完全にコントロールできるため、サービスのラッパーを素早く作成して維持できます。これらの新しいモデルはより優れているのか、切り替えるべきなのか、よく考える必要があります。ベンチマークを見るといい結果が出るかもしれませんが、開発者の視点から見ると、解決すべき課題は何かが重要です。すでにOpenAIやGPT-4に完全に依存しているなら、そのまま続けるべきですが、新しいプロジェクトではこのセットアップを試してみることを検討してみてください。私自身も新しいプロジェクトが控えており、両方の方法を並行して評価する予定です。開発者で、まだentropicに登録していないのであれば、ぜひ登録してみてください。
フレームワークを使わず、自分のコードベースを活用するメリット
AIプロジェクトに参加しましょう!
- AIプロジェクトに参加してみたいけど、どこから始めればいいか分からないという方へ。Program Data Freelancerをチェックしてみてください。このプログラムは、データプロフェッショナル、ソフトウェアエンジニア、AIエンジニアがフリーランス活動を始めるのをサポートするために完全新バージョンがリリースされました。私は過去5年間、フリーランス活動で生計を立てており、多くの人々も同様に成功しています。プログラムは5つ星評価のみで、多くの方々に好評を得ています。最新バージョンではさらに使いやすくなっています。興味がある方はリンクをクリックして詳細を確認してみてください。動画もご覧いただけます。そして、この動画が役に立ったら、高評価をいただけると嬉しいです。次回の情報もお楽しみに!
AIプロジェクトに参加しましょう!
Conclusion:
クロードオーパスとGPT4の比較を通じて、AIエンジニアとしての視点から両モデルの長所と短所を明らかにしました。プログラムコードの例も示しています。