当プロジェクトは現在更新を停止しています。将来的には最新OSへの対応も行う予定ですが、個人プロジェクトのため計画は未確定です。
ほとんどの機能は更新対応済みです。一部ライブラリの仕様変更に伴い、正常に機能しておりません(以下の機能の欄を御覧ください)が、今後対応予定です。
このプロジェクトは、音声認識とGPTモデルを使用してユーザーとの対話を可能にするiOSアプリです。ユーザーは音声を入力し、GPTからの応答を音声で受け取ることができます。また、会話履歴を保存して後で確認したり、続けたりすることができます。
- 音声認識による入力
- GPTモデルとの対話
- 会話履歴の保存と読み込み
- 会話の続き機能
- 会話履歴の閲覧
- 会話セッションはすべて音声で進みます。こちらからの認識音声は自動でGPTに送信され、GPTからの返信はAPIサーバーを通して端末で再生されます。
- 一連の会話セッションは途切れることなく進行するため、ユーザーは画面を触ることも見ることもなく利用することができます。
- セッションを終了したい際には、「またね」と言うことで、そのセッションを終了させることができます。正規表現を用いているので、文末に「またね」が含まれていれば終わってくれます。
- Style-Bert-VITS2を用いて学習させた音声合成モデルを用いているので、感情豊かな音声で返事をしてくれます。
日本語の他に英語もネイティブレベルで応答することができます。現在修正中です。- 指定した会話セッションのコンテキストを復元することができるため、続けたかった会話を後から再開することが可能です。
- GPTにどの様に振る舞ってほしいかを設定欄で入力することができます。また、GPTのモデルやAPIキーも選択、入力することができます。
- このリポジトリをクローンします:
git clone https://github.com/latelatte/GiPiTe.git
- 必要な依存関係をインストールします。CocoaPodsまたはSwift Package Managerを使用している場合は、それに従ってください。
- Xcodeを使ってデバイスにビルドしてください。
- アプリを起動します。
- 設定画面でAPIキーとGPTモデルを設定します。
- 音声認識ボタンを押して話しかけます。
- GPTからの応答を受け取ります。
- 会話履歴を保存して、後で続けることができます。
- リポジトリをフォークします。
- 新しいブランチを作成します:
git checkout -b feature/your-feature-name
- 変更をコミットします:
git commit -m 'Add some feature'
- ブランチにプッシュします:
git push origin feature/your-feature-name
- プルリクエストを作成します。
ViewController.swift
: メインの対話ロジックSettingsViewController.swift
: 設定画面のロジックConversationHistoryViewController.swift
: 会話履歴の表示ConversationDetailViewController.swift
: 個別の会話履歴の詳細表示
このプロジェクトは以下のオープンソースプロジェクトを使用しています:
- Style-Bert-VITS2 - GNU Affero General Public License v3.0
- Speech - Appleのライセンス
- Foundation - Appleのライセンス
- AVFoundation - Appleのライセンス
- MarkdownKit - MITライセンス
- UIKit - Appleのライセンス
このプロジェクトはOpenAIのAPIを使用しています。APIの使用はOpenAIの利用規約に準拠しています。
このプロジェクトでは、VOICEVOXの冥鳴ひまりモデルを使用しています。VOICEVOXエンジンの一部として提供される音声合成モデルを利用しています。
このプロジェクトは text/user_dict/
モジュールを使用しており、これは GNU Lesser General Public License v3.0 の下でライセンスされています。
このプロジェクトは GNU Affero General Public License v3.0 の下でライセンスされています。