ChatGPTなどを提供するOpenAIは、12月6日(日本時間)から12日間連続で大小さまざまな発表・リリースを行いました。
もう全ての発表が終わりましたが、5日目から7日目の発表を振り返ってみたいと思います。
1日目~3日目の発表はこちらをご確認ください。
4日目の発表はこちらをご確認ください。
5日目
- 「Apple Intelligence」からのChatGPTアクセス提供開始
iOSやiPadOS、macOSのSiriやWriting Tool、カメラ機能などでChatGPTが利用できるようになることが発表されました。
AppleとOpenAIが連携することはすでに発表済だったので、具体的な機能実装が発表された感じですね。
代表的な機能としては、
写真から画像を生成する「Image Playground」
テーマ、衣装、アクセサリ、場所などのコンセプトを選択して、AI画像を簡単に作成することができます。
写真ライブラリとも連携しているので、家族や友人に似た画像を作成することも可能!
ユーザーがAIを使った絵文字を作成できる「ジェン文字」
などがあります。
なお、Apple Intelligenceの本機能はAppleが同日リリースした「iOS 18.2」から実装されたのですが、現時点では英語のみの実装となります。
デバイスとSiriの言語設定を「英語(米国)」に変更することで、日本でも使用できるようにはなりますが、正式に日本語で使用できるようになるのは2025年になるとのこと。
6日目
- 「Advanced Voice Mode」に「Santa」追加
- 「Advanced Voice Mode」に「ビデオと画面共有機能」追加
まず、「Santa」モードについては、こちらの記事で触れていますのでご覧いただければと思います。
ビデオと共有機能は、スマートフォンなどのカメラを通じて、映像からAIが状況を理解し、会話ができるようになる機能です。
これは「GPT-4o」が発表されたときに一緒に発表されていた機能ですね。
その際は、ChatGPTが全盲の方の目になり、カメラを通じて状況を説明していました。
個人的には観光地などで建物にカメラを向けたらその建物の説明をしてもらったり、ツアーガイド的な役割をしてもらいたいなと思います。
7日目
- 「Projects(プロジェクト)」発表
「Projects」は、特定のトピックやファイル、会話を整理して一元管理する機能。
説明だけ見ると、GoogleのNotebookLMやClaudeのProjectに似た感じのように思えます。(Claudeなんて機能の名前も被ってる…)
まだ試せていないのではっきりとしたことは言えないのですが、ChatGPTのProjectsはフォルダ分けメインでNotebookLMやClaudのProjectのほうができることは多そうなイメージ。
この機能は有料ユーザーから利用可能となり、その後無料ユーザーにも提供される予定とのことです。