デフォルトKV画像

Microcosmユーザーマニュアル

ホーム » Microcosm » Microcosmユーザーマニュアル

更新日:2024年12月25日

1. デスクトップアプリのインストール~利用開始までの手順

1-1. アプリのインストール、アクティベート

※2回目以降の起動方法…デスクトップに設置された下記アイコンをダブルクリックしてアプリを起動します。

1-2. ローカルモデルのインストール

1-3. プロンプト等の設定

設定画面にて、必要な情報を設定します。
※最低限必要な情報を入力することで登録を行えますが、各項目の詳細な設定を行いたい方は2-2. 設定画面をご参照ください。

※最低限必要な情報
ユーザー名:ユーザー名をご入力ください。
推論モード:お使いのプロセッサに応じてGPUまたはCPUをお選びください。
モデル:ダウンロード済みのLLMを選択してください。
プロンプト:AIが全般的にどんなトーンやスタイルで応答するか、あらかじめベースラインを決めるシステムプロンプトです。(例)『常に丁寧な口調で答えて』や『出力は箇条書きで簡潔に』」

 プロンプト例
  #指示
  あなたはAI事業戦略のブレインです。
  私からの質問に対して、要点を絞って回答してください。
  #制約
  ビジネス会話を意識し、丁寧かつ自然な日本語で回答を生成してください。
  回答はRAGデータのテキスト通りに生成してください。
  RAGデータにない情報を推測で補わないでください。
  出力文字数は以下を守ってください。
  下限:10文字
  上限:200文字

1-4. 利用開始

以下ホーム画面から会話を開始できます。

2. 各種機能説明

2-1. ホーム画面

新規スレッドボタン新しいスレッドを作ります。
過去スレッド一覧過去のスレッドが表示されます。スレッドをクリックすると過去のスレッドが表示されます。
お問い合わせボタンお問い合わせ用Googleフォームへ遷移します。(オンライン状態で利用できる機能です)
ユーザーマニュアルボタンMicrocosmのユーザーマニュアルページへ遷移します。(オンライン状態で利用できる機能です)
設問入力フォームあなたがAIに投げかける個別の質問や指示(ユーザープロンプト)の入力欄です。
(例)『このテキストを要約して』や『この文章を英訳して』
設定画面で登録されたシステムプロンプトの振る舞いで、当フォームで入力された設問に対してAIが回答を生成します。
送信ボタン設問をAIにリクエストして回答を得ます。
スレッド設定ボタン設定画面に登録された内容を表示します。スレッド内で設定変更した場合、そのスレッド内でのみ設定が適応されます。

2-2. 設定画面

ユーザー名ユーザー名です。AIがユーザー名で回答するように今後実装予定です。
AIモードβ版ではローカル生成モード固定です。
推論モードCPUを選択するとCPUでAIの回答をします。GPUを選択した場合は、GPUでAIの回答をします。※現在、NVIDIAのGPUのみ動作検証しております。NVIDIAの場合は当アプリをご利用いただくためにCUDA ツールキットのインストールが必須となります。以下URLリンクからダウンロード、インストールをお願いします。CUDA Toolkit 12.6 Update 2 Downloads | NVIDIA Developer
モデルテキストの入力を受け取り、テキスト出力を生成するモデルを選択します。モデル一覧画面から追加削除ができます。
⑤ ビジョンモデル【有償版限定】画像とテキストの入力を受け取り、テキスト出力を生成するモデルを選択します。
プロンプト各会話スレッドにて初期設定されるシステムプロンプトになります。AIが全般的にどんなトーンやスタイルで応答するか、あらかじめベースラインを決めるプロンプトです。(例)『常に丁寧な口調で答えて』や『出力は箇条書きで簡潔に』」
⑦ 詳細設定温度
temperature(温度)が高いほど、多様で予測しにくい出力が生成されます。逆にtemperatureが低いほど、より確定的で予測可能な出力になります。0〜2の間で設定します。
TOP P
AIモデルが回答生成する際に絞りこむ候補の量を決めることができます。0〜1の間で設定します。
Max Tokens
最大トークン数です。100〜128000の間で設定します。PCメモリによっては、4096を超えると回答生成が極端に遅くなります。
Frequency Penalty
生成したテキストに基づいて、新しいトークンに課すペナルティです。同じテキスト出力の可能性を減らします。0〜1の間で設定します。
Presence Penalty
生成したトークンに基づいて、新しいトークンに課すペナルティです。同じトークンの繰り返し可能性を減らします。0〜1の間で設定します。
Context Size
プロンプトで入れられるコンテキスト長です。128~128000の間で設定します。PCメモリによっては、4096を超えると回答生成が極端に遅くなります。当アプリでは、プロンプト+RAGデータ+会話記録数で設定した件数の会話履歴を含めて生成しています。
GPU Layers
GPUに読み込むレイヤー数です。1〜100の間で設定します。目安  7B モデル: 最大32レイヤー13B モデル: 最大40レイヤー70B モデル: 最大80レイヤー
⑧ 会話記録数スレッド内の会話履歴をいくつまで含めて回答するかを、0~10の間で設定します。
RAG回答ONにすると、指定したRAGデータを参考に回答が生成されます。OFFの場合、RAGデータを検索しません。RAGデータは最大3ファイルまで選択可能です。
⑩ ファイル検索履歴【有償版限定】ファイル検索履歴から選択したファイル内データを取得して回答が生成されます。
⑪ 外部連携【有償版限定】選択した外部連携APIからデータを取得して回答が生成されます。外部連携APIは最大3つまで選択可能です。

2-3. RAG一覧画面

検索ボタン指定したRAG名で検索します。
追加ボタンRAG登録画面に遷移します。
データ一覧ボタンRAGデータ一覧画面に遷移します。
編集ボタンRAG名を編集します。
削除ボタンRAGを削除します。

2-3-1. RAGデータ一覧画面

検索ボタンRAGデータ一覧内の対象データを検索して表示します。
追加ボタンRAGデータ登録画面に遷移します。
RAGインポートボタンRAG、CSVインポート、CSVエクスポート画面に遷移します。
④ 削除登録されているRAGデータを削除します。
⑤ファイル削除指定したファイル名で生成されたRAGデータを一括削除します。

2-3-2. RAGインポート画面

モデル指定したモデルでAIのインポートデータを作成します。
インポートタイプファイル:指定したファイルでインポートをする
ディレクトリ:指定したディレクトリ配下のファイルで該当する拡張子の全ファイルをインポートをする
③ プロンプトインポート時に考慮したい指示を任意で設定します。

2-3-3. CSVインポート画面

AIを使用せずに、CSVファイルをインポートします。

インポートタイプファイル:指定したファイルでインポートをする
ディレクトリ:指定したディレクトリ配下のファイルで該当する拡張子の全ファイルをインポートをする

2-4. モデル一覧画面

モデル追加ボタンモデル追加画面に遷移します。
削除ボタンモデルを削除します。
ダウンロードボタンデフォルトのモデルをダウンロードします。
※ LLMをダウンロードする際はインターネットに接続してください。
ダウンロードするURL例は、以下となります。
https://huggingface.co/bartowski/Llama-3.2-3B-Instruct-GGUF/resolve/main/Llama-3.2-3B-Instruct-Q4_K_L.gguf
※ モデルの配置場所は、以下となります。直接配置してもモデルを読み取ります。
C:\Users\アカウント名\AppData\Roaming\microcosm\models

2-4-1. モデル追加画面

モデルURLggufファイルのURLを記載してURLのファイルをダウンロードします。
ダウンロードボタン指定したファイルをダウンロードしてソフトウェアに配置します。

2-5. プロダクトキー画面

※プロダクトキー入力が必要なバージョンをご利用の場合。

① アクティベーション削除ボタン入力したプロダクトキーを破棄したい場合は、アクティベーションボタンを押して削除します。

3. RAGデータの登録・設定方法

①右上メニューボタンを押下、「RAG」をクリックします。

②RAG一覧画面に表示されている「データ一覧」をクリックし、「追加(③へお進みください)」または「インポート/エクスポート(④へお進みください)」をクリックします。

③(追加ボタン押下時の手順)
設問と回答を入力し登録ボタンをクリックすると、RAGデータが登録されます。

④(インポート/エクスポートボタン押下時の手順)

▼RAGインポート
RAGデータ作成用のモデルを選択し、インポートタイプは以下の3つから選びます。
 -ファイル:指定したファイルでインポートする
 -ディレクトリ:指定ディレクトリ配下のファイルで該当する拡張子の全ファイルをインポートする
「プロンプト」には、RAGデータ作成時に考慮してもらいたい指示を任意で設定します。
インポートボタンをクリックすると、インポートしたデータをもとにAIがRAGデータを作成します。

▼CSVインポート
インポートタイプを以下の2つから選びます。
 -ファイル:指定したファイルでインポートする
 -ディレクトリ:指定ディレクトリ配下の.CSVファイルをインポートする
インポートボタンをクリックすると、元データをそのままRAGデータに作成します。

▼CSVエクスポート
作成されたRAGデータをCSVファイルでエクスポートします。

4. LLMの追加方法

①右上メニューから「モデル」をクリックします。

②モデル一覧画面内の「モデル追加」をクリックします。
モデル追加画面内の「モデルURL」フィールドに”.gguf”※で終わるURLを入力し、ダウンロードボタンをクリックします。
LLMをダウンロードする際はインターネットに接続してください。

※AI開発プラットフォーム「Hugging Face」等からURLを取得される場合は、以下画像赤枠の”Copy download link”からコピーしてください。アドレスバーのURLはモデルのダウンロードにご使用いただけない可能性がある為、ご注意ください。

5. アプリの初期化方法

Microcosmアプリ自体をアンインストールした場合でも、履歴やモデル等のデータはローカル環境内に残っています。そのためMicrocosmで使用したデータを完全に初期化したい場合は、以下の手順を実施してください。

① アプリを終了する
② エクスプローラ上部に以下パスを入力し、Roamingフォルダを開く
 C:\Users\{ユーザー}\AppData\Roaming
 ※{ユーザー}はPCにログイン中のアカウント情報に置き換えてください。
③ microcosmフォルダごと削除する
④ 実行ファイルを再度インストールする

6. 【有償版限定】AIファイル検索機能

AIを使用して端末内のファイルを検索することができます。

右上メニューボタンを押下し、「AIファイル検索」をクリックします。

AIファイル検索画面内の「モデル」を選択し、「参照」を押下、検索にかけたいデバイス内のフォルダを選択します。
検索対象ファイルより、任意のファイル形式にチェックを入れます。
プロンプトに検索するファイルについての指示を入力し、実行を押下します。

モデル検索に使用するモデルを選択します。
②参照検索したいデバイス内のディレクトリを参照します。
③検索する対象ファイル検索したいファイルのファイル形式をチェックします。
④プロンプト検索したいファイルについて指示をします。
⑤実行検索を実行します。
⑥クリア①~④で設定した内容をすべてクリアします。
履歴検索履歴を表示します。

6₋1. AIファイル検索結果画面

ファイル名検索したファイル名
検知箇所ファイルが存在しているディレクトリパス
③ AI要約ファイルの内容をAIが要約したもの。
④ 回答①の検索プロンプト内容に対する、AIの回答。
⑤ スコア複数あるファイルの中から、AIの判断で一致率の高い順に表示します。
⑥ アクション削除します。
検索結果をチェックボックスで選択し、一覧から削除します。

6₋2. AIファイル検索履歴画面

検索結果検索結果の詳細(5₋2₋1)画面へ遷移します。
削除検索結果を削除します。

6₋2-1. 検索結果画面

選択項目削除検索結果をチェックボックスで選択し、一覧から削除します。
削除検索結果を削除します。

検索したファイルの内容についてAIに質問したい場合は、設定画面に遷移し、ファイル検索履歴から該当するファイルを選択して登録します。

7.【有償版限定】外部連携機能

外部のAPIエンドポイントに対して任意のリクエスト(GET/POSTなど)を行い、そのレスポンスをMicrocosmに取り込む機能です。

外部連携機能によって、さまざまな公開API(官公庁オープンデータ、地域イベント情報、料理レシピ検索、天気や交通、金融、ニュース、地図・位置情報サービスなど)から、認証・パラメータ設定を行い、任意の情報を取得してMicrocosmと連携することが可能になります。

右上メニューボタンを押下し、「外部連携」をクリックし、外部連携一覧画面に遷移します。

7₋1. 外部連携一覧画面

API名入力フォーム検索したいAPI名を入力します
登録されている外部連携データをAPI名で検索します
登録フォームを表示します
編集フォームを表示します
該当データを削除します

7₋2. 登録フォーム画面

① API名検索したいAPI名
② エンドポイントURL接続先のURL。メソッドがGETの場合は、クエリパラメータをURLに含めて記載
③ メソッドリクエスト時のメソッド
④ ヘッダーヘッダー内に追加したいパラメータの入力フォームを追加ヘッダーkey:ヘッダー値のkey名ヘッダーvalue:ヘッダー値のkey名のvalue
⑤ リクエスト形式FORM-DATA:HTMLのリクエストX-WWW-FORM-URLENCODE:URLエンコードのリクエストJSON:JSONリクエスト
⑥ リクエスト値リクエスト内に追加したいパラメータの入力フォームを追加リクエストkey:リクエスト値のkey名リクエストvalue:リクエスト値のkey名のvalue
⑦ レスポンス形式TEXT:通常は、こちらを選択JSON:JSONで返却される場合に選択
認証有無API実行に事前に認証が必要な場合は、「有」を選択する。
⑨ 認証APIエンドポイントURL接続先のURL。メソッドがGETの場合は、クエリパラメータをURLに含めて記載
⑩ 認証APIメソッド認証APIリクエスト時のメソッド
⑪ 認証ヘッダー認証ヘッダー内に追加したいパラメータの入力フォームを追加認証ヘッダーkey:認証ヘッダー値のkey名認証ヘッダーvalue:認証ヘッダー値のkey名のvalue
⑫ 認証リクエスト形式FORM-DATA:HTMLのリクエストX-WWW-FORM-URLENCODE:URLエンコードのリクエストJSON:JSONリクエスト
⑬ 認証リクエスト値認証リクエスト内に追加したいパラメータの入力フォームを追加認証リクエストkey:認証リクエスト値のkey名認証リクエストvalue:認証リクエスト値のkey名のvalue
⑭ 認証レスポンス形式TEXT:通常は、こちらを選択JSON:JSONで返却される場合に選択
⑮ 認証トークンキー名APIにアクセスする際に使用する認証トークンを送信するためのキー

たとえば、ランダムな犬の画像URLを取得するAPIを設定してみます。
API名:Dog CEO’s Dog API
エンドポイントURLhttps://dog.ceo/api/breeds/image/random
※このAPIにGETリクエストを送信すると、ランダムな犬の画像URLがJSON形式で返されます。
メソッド:GET

登録ボタン押下前にAPI実行ボタンを押下し、200とレスポンス内容が正常であることを確認します。※認証がある場合も同様に認証実行ボタンを押下し、正常であることを確認します。

正常に作動することを確認したら登録ボタンを押下し、外部連携APIの登録が完了します。

最後に、設定画面またはホームのスレッド内で、使用する外部連携APIを選択して設定を登録します。

ホーム画面で会話を開始すると、APIの結果を踏まえて回答が生成されます。

8.【有償版限定】誤字脱字チェック機能

AIに資料を読み込ませ、誤字脱字箇所を確認&修正してもらいたい場合は、以下手順を実施してください。

右上メニューから「誤字脱字チェック」をクリック。

誤字脱字を確認及び修正する際に使用する「モデル」を選択し、を押下、修正にかけたい端末内のファイルを選択します。対応拡張子はdocx, txt, pdf, html の4通りです。

プロンプトに確認内容または修正内容の指示を入力し、を押下します。※空欄でも実行可能です。

処理が完了すると、以下の通り結果が表示されます。
を押下すると、指定したファイルの拡張子と同じファイルで修正したファイルを出力することができます。
を押下すると、誤字脱字修正後のPDFファイルを出力することができます。
※ファイル内に画像やグラフがある場合、ファイル出力に失敗するケースがあります。

9.【有償版限定】音声読み上げ機能

AIモデルの回答テキストを読み上げてほしい場合は、以下手順を実施してください。

右上メニューから「音声読み上げ」をクリックして音声読み上げ画面に遷移します。

① 音声読み上げ読み上げ機能のオンオフを切り替えます。をクリックすると、現在の設定内容でサンプル音声を再生します。
② 音量読み上げ機能の音量を設定します。
③ 再生速度読み上げ速度を設定します。
④ ピッチ読み上げ音声の高さを設定します。数が小さいほど低く、大きいほど高くなります。
設定内容を保存、反映します。

10.【有償版限定】画像推論機能

画像推論機能を用いることで、物体やシーンの識別を行う画像認識、画像内のテキスト抽出を行う文字認識(OCR)、画像内容の説明作成を行うキャプション生成などが可能になります。

【事前準備①Ollama を端末にダウンロード&インストール
※Ollamaは、ローカル環境でLLMを実行するためのオープンソースのプラットフォームです。Ollamaを用いることで、Microcosm上で様々なビジョンモデルに対応した画像推論が可能になります。

【事前準備②】Vision Language model(以下「ビジョンモデル」と呼称)をダウンロード
※Vision Language Modelとは、画像とテキストの入力を受け取り、テキスト出力を生成する生成モデルの一種です。

Microcosmの右上メニューから「ビジョンモデル」をクリックし、「画像推論モデル一覧画面」に遷移します。

10-1. 画像推論モデル一覧画面

一覧の中から、使用したいビジョンモデルをダウンロードします。

「OllamaサーバーホストURL」にはデフォルトでlocalhostのURLが指定されているため、設定の必要はありません。サーバーホストURLを変更されたい方のみ入力し、適用ボタンを押下してください。

▼ビジョンモデルの参考情報
Moondream:1.8B
 推奨メモリ: 8GB~12GBのGPUメモリ
 小型モデルのため、一般的なコンシューマ向けGPUでも十分に動作可能。
LLaMA3.2-Vision:11B
 推奨メモリ: 16GB~24GBのGPUメモリ
 中型モデルで、高精度な解析を行うために中程度のメモリが必要。
LLaMA3.2-Vision:90B
 推奨メモリ: 64GB~80GBのGPUメモリ(高性能なH100/A100クラスのGPUを推奨)
 大型モデルで非常に多くのリソースを消費するため、専用の高性能GPUが必要。
LLaVA:7B
 推奨メモリ: 12GB~16GBのGPUメモリ
 画像と言語のタスクに特化しており、中程度のメモリで動作可能。

【事前準備③】設定画面にて、使用するビジョンモデルを選択

事前準備は以上です。

10-2. 画像推論画面

右上メニューから「画像推論」をクリックし、画像推論画面に遷移します。

質問テキストを入力、を押下して画像を選択した後、を押下して質問を送信します。

画像に alt 属性が指定されていません。ファイル名: 06b94c25d56ce55e1fb82fff02d4616d-1024x546.png