主な特長
「Oppy」はWindows 10/11向けのアプリで、AIとの対話を通じてプログラムを作成し、ユーザーのタスク達成を強力にサポートするツールです。
主な機能:
AIとのリアルタイム対話: アプリ内でOpenAI(GPT-4)やLLama/Code LLamaとリアルタイムで対話できるウィンドウを提供し、ユーザのタスク解決へのAIとの連携を簡単に実現できます。
コード生成と実行: AIが生成したPythonのプログラムコードをウィンドウ左側のPythonコンソールで直接実行することができ、必要なタスクを迅速に処理できます。専用の拡張されたPythonの対話型コンソールはターミナルコマンドやその他の便利なコマンド、.pyファイルの直接実行もサポートしています。
タスクごとの設定: AIが生成したPythonのコードブロックに対してカスタムプロパティを設定でき、例えば呼び出されるREST APIのAPIキーなど、タスクの要件に合わせた設定を行えます。
ワークディレクトリの自動作成: タスクごとに自動的にワークディレクトリを生成し、ローカル環境での画像や音声などのファイルに対する処理が必要なタスクもサポートします。
対話の履歴と再開: 対話の履歴が自動的に保存され、途中からAIと再度対話を開始できます。過去の対話を見返すことも出来、対話の途中からAIを切り替えて対話を継続することも可能です。
データ共有: サーバに自分のチャンネルを作成し、任意の対話データセットをアップロードして共有できます。友達やチームメンバーと協力してタスクを進めるための便利な機能です。
「Oppy」はプログラミングを容易にし、ユーザのタスク達成を迅速かつ効率的にサポートします。高いプログラミングのスキルや広範囲の知識をユーザに求めることなく、ユーザの依頼に応じてタスク達成に必要なプログラムの作成と実行を手助けします。
今すぐ「Oppy」をダウンロードして、AIと協力して目標を達成する喜びを味わいましょう。
* 以下のチャンネルで、Oppyを使って様々なタスクを解決するデモ動画を順次公開しています。 https://www.youtube.com/@Oppy-AI-mg8yi
!!! 使用上の注意 !!!
1.ローカルAIのパフォーマンス要件: 「Oppy」はOpenAI及びローカルAI(LLama2、CodeLLama)とのリアルタイム対話を提供しますが、ローカルAIを使用する際には動作環境となるPCに比較的高い性能が求められます。要求性能を満たしていないPCでの動作は、フリーズなどの問題を引き起こす可能性があります。
ローカルAIを使用する前に、以下の動作環境に対する要件を確認してください:
プロセッサ: マルチコアプロセッサ(最新のプロセッサが推奨) メモリ: 16GB以上のRAM グラフィックスカード: CUDA対応GPUを搭載したグラフィックスカード ストレージ: SSDが推奨
2.OpenAIとの連携要件: OpenAIとの対話にはOpenAIのAPIキーが必要です。OpenAIのWebサイト(https://platform.openai.com/)からユーザ登録の上、このページ(https://platform.openai.com/api-keys)からAPIキーを取得しOppyの設定画面にて設定してください。
3.Geminiとの連携要件: Geminiとの対話にはGeminiのAPIキーが必要です。GeminiのWebサイト(https://ai.google.dev/)からAPIキーを取得しOppyの設定画面にて設定してください。
その他のおすすめ
レビュー
記事
- 3
Flexikey
- 4
Move Window
- 5
循迹键鼠
- 6
Countdown-倒计时
- 3
Flexikey
- 4
Move Window
- 5
循迹键鼠
- 6
Countdown-倒计时