先週の金曜日にGoogleの新しいAIモデル「Gemini」がリリースされました。
「GPT-4を超えた」「人間を越えた」とネット上では話題になっています。
「何を基準に?」と思いましたが、GoogleによるとMMLUというテストでの結果だそうです。
そのテストは読解力や大学の数学、物理学、経済、社会科学の多肢選択式クイズなどで測定みたいです。
結果は「Gemini」は90%、「GPT-4」は86%だそうです。ちなみに「人間の専門家」は89%だそうです。
このGoogleの発表を受けて、ネットでは「GPT-4を越えた」「人間を越えた」と騒いでいるわけです。
そんなに騒ぐことはないと思います。AIモデルというツールを上手く使いこなしていくのが人の役割です。
AIモデルも利用シーンや目的によって「得手」「不得手」があります。
人が「何を解決したいか?」を考えて、そこから適切なAIモデルというツールを「選択」し、適切な「問い掛け」を行っていくわけです。
そして出してもらった「回答」を、人がリアルな問題解決に利用していくわけです。
ただ「Gemini」は最初から画像や動画、音声を扱う「マルチモーダルAI」として作られています。
GPT-4のように発展の過程で「マルチモーダルAI」になったのではないので、それが何に現れるのか興味深いです。
日曜日の夕方に少し時間がとれたので「Gemini」を試してみました。
ちなみに「Gemini」は「Bardの英語版」のAIモデルとして搭載されています。
残念ながら「Bardの日本版」のAIモデルは「PaLM2」のままです。「PaLM2」でもすごいのですが…
余談ですが、「Gemini」「PaLM2」と「Bard」の関係は、「GPT-4(3.5)」と「ChatGPT」の関係にあたります。
そんなわけで「Bardの英語版」で、早速「Gemini」を使ってみました。
まだ「GPT-4を超えたと言われる性能」は、自分にはまだよくわかりませんでした。これから楽しみです。