更新日:2025年2月13日
1. デスクトップアプリのインストール~利用開始までの手順
1-1. アプリのインストール、アクティベート

※2回目以降の起動方法…デスクトップに設置された下記アイコンをダブルクリックしてアプリを起動します。

1-2. ローカルモデルのインストール

1-3. プロンプト等の設定
設定画面にて、必要な情報を設定します。
※最低限必要な情報を入力することで登録を行えますが、各項目の詳細な設定を行いたい方は2-2. 設定画面をご参照ください。
※最低限必要な情報
ユーザー名:ユーザー名をご入力ください。
推論モード:お使いのプロセッサに応じてGPUまたはCPUをお選びください。
モデル:ダウンロード済みのLLMを選択してください。
プロンプト:AIが全般的にどんなトーンやスタイルで応答するか、あらかじめベースラインを決めるシステムプロンプトです。(例)『常に丁寧な口調で答えて』や『出力は箇条書きで簡潔に』」
プロンプト例
#指示
あなたはAI事業戦略のブレインです。
私からの質問に対して、要点を絞って回答してください。
#制約
ビジネス会話を意識し、丁寧かつ自然な日本語で回答を生成してください。
回答はRAGデータのテキスト通りに生成してください。
RAGデータにない情報を推測で補わないでください。
出力文字数は以下を守ってください。
下限:10文字
上限:200文字

1-4. 利用開始
以下ホーム画面から会話を開始できます。

2. 各種機能説明
2-1. ホーム画面

① スレッド表示 | スレッドの一覧を表示します。 |
② ホーム | ホーム画面に戻ります。 |
③ Rag | RAG一覧画面に遷移します。 |
④ Search | AIファイル検索画面に遷移します。 |
⑤ API | 外部連携またはローカルAPI表示画面に選択遷移します。 ローカルAPIは、独自サーバ上で稼働させているMicrocosmアプリに各クライアントPCから接続するための機能です。 ※ローカルAPIはオプション機能です。 |
⑥ Check | 誤字脱字チェック画面に遷移します。 |
⑦ Diagram | 開発中の機能です。 |
⑧ Terminal | 開発中の機能です。 |
⑨ Setting | 設定画面へ遷移します。 |
⑩ Help | プロンプト集:参考にできるプロンプト例を確認できるページへ遷移します。マニュアル:Microcosmユーザーマニュアルのページへ遷移します。お問い合わせ:お問い合わせ用Googleフォームへ遷移します。 使用のためには、インターネット接続が必要な機能です(アプリ内の情報が漏洩することはありません)。 |
⑪ モデルダウンロード | モデル一覧画面に遷移します。 |
⑫ プロダクトキー | プロダクトキー画面に遷移します。 |
⑬ 言語 | 日本語と英語の切り替えができます。 |
⑭ テーマ | ライトモードとダークモードの切り替えができます。 |
⑮ 音声読み上げ | 生成した回答を音声で読み上げる機能です。デフォルト設定=Off |
⑯ 設問入力フォーム | あなたがAIに投げかける個別の質問や指示(ユーザープロンプト)の入力欄です。(例)『このテキストを要約して』や『この文章を英訳して』設定画面で登録されたシステムプロンプトの振る舞いで、当フォームで入力された設問に対してAIが回答を生成します。 |
⑰ スレッド設定 | スレッド毎にモデルやプロンプト等の設定を変更できます。デフォルトでは、設定画面で設定した内容が反映されます。 |
⑱ 送信ボタン | 設問をAIにリクエストして回答を得ます。 |
【⑰ スレッド設定画面】


⑲ 新規スレッドボタン | 新しいスレッドを作ります。 |
⑳ 過去スレッド一覧 | 過去のスレッドが表示されます。スレッドをクリックすると過去のスレッドが表示されます。 |
㉑ タイトル編集 | 選択した過去スレッドのタイトルを編集できます。 |
㉒ 履歴削除 | 選択した過去スレッド内の会話履歴を削除します。 |
㉓ スレッド削除 | 選択した過去スレッドをスレッドごと削除します。 |
㉔ 設定確認 | スレッド内の回答毎の一部の設定内容を確認できます。 |
㉕ コピー | ユーザーの設問、AIの生成した回答テキストをコピーすることができます。 |
2-2. 設定画面

① ユーザー名 | ユーザー名です。AIがユーザー名で回答するように今後実装予定です。 |
② AIモード | 詳細は2-10. AIモード選択で確認いただけます。 ローカル生成:各クライアントPCで稼働します。 Open AI API:Open AI に連携する機能です。※インターネット接続が必要 Open AI 互換 API:独自サーバ上で稼働させているMicrocosmアプリに各クライアントPCから接続するための機能です。 |
③ 推論モード | CPUを選択するとCPUでAIの回答をします。GPUを選択した場合は、GPUでAIの回答をします。 ※現在、NVIDIAのGPUのみ動作検証しております。NVIDIAの場合は当アプリをご利用いただくためにCUDA ツールキットのインストールが必須となります。 以下URLリンクからダウンロード、インストールをお願いします。 CUDA Toolkit 12.6 Update 2 Downloads | NVIDIA Developer |
④ モデル | テキストの入力を受け取り、出力テキストを生成するモデルを選択します。モデル一覧画面から追加削除ができます。 |
⑤ プロンプト | 各会話スレッドにて初期設定されるシステムプロンプトになります。AIが全般的にどんなトーンやスタイルで応答するか、あらかじめベースラインを決めるプロンプトです。(例)『常に丁寧な口調で答えて』や『出力は箇条書きで簡潔に』」 |
⑥ 詳細設定 | 温度:0〜2の間で設定します。 temperature(温度)が高いほど、多様で予測しにくい出力が生成されます。逆にtemperatureが低いほど、より確定的で予測可能な出力になります。 TOP P:0〜1の間で設定します。 回答を生成するときに、どれだけ多様な選択肢を考慮するかを決める設定です。数値が低いと、回答が決まったパターンに絞られ、高いとさまざまな候補から選ばれます。 Max Tokens:100〜128000の間で設定します。 生成される回答の最大「単語数」に近い数値です。数が大きいほど長い回答を作れますが、メモリの負荷が増え、処理が遅くなることがあります。 Frequency Penalty:0〜1の間で設定します。 同じ単語や表現を頻繁に使わないよう調整できます。テキスト生成で同じ単語の重複を防ぎたい(多様性や創造性を重視したい)場合は、値を高めに設定してください。 Presence Penalty:0〜1の間で設定します。 回答に1度でも含んだことのある単語を再使用しない率を設定できます。テキスト生成で同じ単語の重複を防ぎたい(多様性や創造性を重視したい)場合は、値を高めに設定してください。 Context Size:128〜128000の間で設定します。 AIに入力できる文章の長さの上限です。大きな値にすると多くの情報を参考にできますが、メモリの関係で処理が遅くなる場合があります。当アプリでは、過去の会話履歴もこの長さに含まれます。 GPU Layers:1〜100の間で設定します。 GPU(高速な計算を行う装置)で処理する「層(レイヤー)」の数を設定する項目です。モデルのサイズに応じて最適なレイヤー数が異なり、例えば7Bモデルなら最大32層、70Bモデルなら最大80層が目安となります。 |
⑦ 会話記録数 | スレッド内の会話履歴をいくつまで含めて回答するかを、0〜10の間で設定します。 例)設定を「2」にすると、2つ前までの会話を考慮した回答を生成します。Context Sizeが上限を超えると回答生成に失敗するため、ご注意ください。 |
⑧ RAG参照回答 | ONにすると、指定したRAGデータを参考に回答が生成されます。OFFの場合、RAGデータを検索しません。RAGデータは最大3つまで選択可能です。 |
⑨ ファイル検索履歴 | ファイル検索履歴から選択したファイル内データを取得して回答が生成されます。ファイルデータは最大3つまで選択可能です。 |
⑩ 外部連携 | ONにすると、指定した外部連携APIからデータを取得して回答が生成されます。OFFの場合、外部連携APIからデータを取得しません。外部連携APIは最大3つまで選択可能です。 |
2-3. RAG一覧画面

指定したRAG名で検索します。 | |
RAG登録画面に遷移します。 | |
RAGデータ一覧画面に遷移します。 | |
RAG名を編集します。 | |
RAGを削除します。 |
2-3-1. RAGデータ一覧画面

RAGデータ一覧内の対象データを検索して表示します。 | |
RAGデータ登録画面に遷移します。 | |
RAGインポート/CSVインポート:各画面に遷移します。CSVエクスポート:エクスプローラーが起動します。 | |
選択したRAGデータを削除します。 | |
指定したファイル名で生成されたRAGデータを一括削除します。 | |
RAGデータの内容を編集します。 |
2-3-2. RAGインポート画面

モデル | インポートデータをもとにRAGデータ作成に使用するモデルを選択します。 |
インポートタイプ | 下記の2パターンから選択します。 ファイル:指定したファイルでインポートをする ディレクトリ:指定したディレクトリ配下のファイルで該当する拡張子の全ファイルをインポートをする |
プロンプト | RAGデータ作成時に考慮してもらいたい指示を任意で設定します。 |
2-3-3. CSVインポート画面
AIを使用せずに、CSVファイルをインポートします。

2-3-4. RAG/RAGデータ作成手順
① RAG一覧画面より、をクリックし、任意のRAG名で登録
② 作成したRAG一覧画面に表示されているをクリック
③ (④へ)または
(⑤へ)をクリック

④(の場合の手順)
設問と回答を入力しをクリックすると、RAGデータが登録されます。

⑤(の場合の手順)
▼RAGインポート
RAGデータ作成用の「モデル」と、「インポートタイプ」をそれぞれ選択します。
「プロンプト」には、RAGデータ作成時に考慮する指示を任意で設定します。をクリックすると、選択したファイルデータを元にAIがRAGデータを作成します。

【資料内のテキスト情報をチャンク分割してからRAGデータを作りたい場合のプロンプト例】
#指示
以下の制約条件と添付資料をもとに、論理的なチャンクに分割した上でQAペアを生成してください。
#手順
1. 文書を主要なトピックごとに分割
2. 各チャンクから重要な情報を抽出
3. 各チャンクにつき3-5個のQAペアを生成
#制約条件
・各チャンクは独立して理解可能な単位にする
・チャンク間の重複を最小限に
・生成するQAは以下の基準を満たすこと:
・明確な質問
・正確な回答
・チャンクの主要な情報を網羅
・単一の概念に焦点
# 出力フォーマット
[チャンク 1]
Q: [質問1]
A: [回答1]
Q: [質問2]
A: [回答2]
▼CSVインポート
デバイス内のCSVファイルをインポートする機能です。
CSVファイル内のデータをそのままMicrocosmに取り込みます。

▼CSVエクスポート
RAGに登録しているデータをCSVでエクスポートする機能です。
RAGデータを外部に共有したい時に使用します。
2-4. 【製品版限定】AIファイル検索機能

モデル | 検索に使用するモデルを選択します。 |
検索したいデバイス内のディレクトリを参照します。 | |
検索する対象ファイル | 検索したいファイルのファイル形式を選択します。 |
プロンプト | 検索したいファイルについて指示をします。 |
検索を実行します。 | |
①~④で設定した内容をすべてクリアします。 | |
検索履歴を表示します。 |
2-4-1. AIファイル検索手順
① 「モデル」を選択
② をクリックし、検索にかけたいデバイス内のフォルダを選択
③ 「検索対象ファイル」より、任意のファイル形式を選択
④「プロンプト」に「〇〇についての資料を探して」等の指示を入力し、をクリック
検索が完了すると、同画面下に以下のような結果が出ます。

2-4-2. AIファイル検索履歴画面

検索結果の詳細は、下記の(2-4-3)画面へ遷移します。 | |
検索結果を履歴から削除します。 |
2-4-3. 検索結果画面

① ファイル名 | 検索したファイル名 |
② 検知箇所 | ファイルが存在しているディレクトリパス |
③ AI要約 | AIが要約したファイルの内容です。 |
④ 回答 | ①の検索プロンプト内容に対する、AIの回答です。 |
⑤ スコア | 複数あるファイルの中から、AIの判断で一致率の高い順に表示します。 |
⑥ アクション | ファイルを削除します。 |
検索結果をチェックボックスで選択し、一覧から削除します。 |
検索したファイルの内容についてAIに質問したい場合は、設定画面に遷移し、ファイル検索履歴から該当するファイルを選択して登録します。

2-5.【製品版限定】外部連携一覧画面
外部のAPIエンドポイントに対して任意のリクエスト(GET/POSTなど)を行い、そのレスポンスをMicrocosmに取り込む機能です。
外部連携機能によって、さまざまな公開API(官公庁オープンデータ、地域イベント情報、料理レシピ検索、天気や交通、金融、ニュース、地図・位置情報サービスなど)から、認証・パラメータ設定を行い、任意の情報を取得してMicrocosmと連携することが可能になります。
【公開API一例】
官公庁オープンデータ/地域イベント情報/料理レシピ検索/天気/交通/金融/ニュース/地図/位置情報サービスなど

指定したAPI名で検索します。 | |
API登録画面に遷移します。 | |
API名を編集します。 | |
APIを削除します。 |
2-5-1. 外部連携登録方法
たとえば、ランダムな犬の画像URLを取得するAPIを設定してみます。
API名:Dog CEO’s Dog API
エンドポイントURL:https://dog.ceo/api/breeds/image/random
※このAPIにGETリクエストを送信すると、ランダムな犬の画像URLがJSON形式で返されます。
メソッド:GET

登録ボタン押下前にAPI実行ボタンを押下し、200とレスポンス内容が正常であることを確認します。※認証がある場合も同様に認証実行ボタンを押下し、正常であることを確認します。

正常に作動することを確認したら登録ボタンを押下し、外部連携APIの登録が完了します。

登録後、設定画面またはホームのスレッド内で、使用する外部連携APIを選択して設定を保存します。

ホーム画面で会話を開始すると、APIの結果を踏まえて回答が生成されます。

2-6.【製品版限定】誤字脱字チェック機能
AIモデルに資料を読み込ませ、誤字脱字箇所を確認・修正する機能です。

モデル | 誤字脱字チェックに使用するモデルを選択します。 |
誤字脱字チェックをしたいデバイス内のファイルを参照します。 | |
誤字脱字チェックを実行します。 |
2-6-1. 誤字脱字チェック方法
誤字脱字を確認及び修正する際に使用する「モデル」を選択し、を押下、修正にかけたい端末内のファイルを選択します。対応拡張子はdocx, txt, pdf, html の4通りです。
「プロンプト」に確認内容または修正内容の指示を入力し、を押下します。
※空欄でも実行可能です。
処理が完了すると、以下の通り結果が表示されます。

指定したファイルの拡張子と同じファイルで修正したファイルを出力することができます。 | |
誤字脱字修正後のPDFファイルを出力することができます。※ファイル内に画像やグラフがある場合、ファイル出力に失敗する場合があります。 |
2-7. モデル一覧画面

モデル追加画面に遷移します。 | |
モデルを削除します。 | |
デフォルトのモデルをダウンロードします。※使用のためには、インターネット接続が必要です(アプリ内の情報が漏洩することはありません)。 |
2-7-1. モデル追加画面

モデルURL | ggufファイルのURLを記載してURLのファイルをダウンロードします。 |
2-7-2. モデル追加方法
モデル一覧画面内のをクリックします。
モデル追加画面内の「モデルURL」フィールドに”.gguf”※で終わるURLを入力し、ダウンロードボタンをクリックします。LLMをダウンロードする際はインターネットに接続してください。

【ダウンロードするURL例】
https://huggingface.co/bartowski/Llama-3.2-3B-Instruct-GGUF/resolve/main/Llama-3.2-3B-Instruct-Q4_K_L.gguf
※ モデルの配置場所は、以下となります。直接配置してもモデルを読み取ります。
C:\Users\{ユーザー}\AppData\Roaming\microcosm\models
{ユーザー}はPCにログイン中のアカウント情報に置き換えてください。
※AI開発プラットフォーム「Hugging Face」等からURLを取得される場合は、下記画像赤枠の”Copy download link”からコピーしてください。アドレスバーのURLはモデルのダウンロードにご使用いただけないため、ご注意ください。

2-8. プロダクトキー画面
※プロダクトキー入力が必要なバージョンをご利用の場合。

入力したプロダクトキーを破棄したい場合は、アクティベーションボタンを押して削除します。 |
2-9.【製品版限定】音声読み上げ機能
AIが生成する回答を音声で読み上げる設定をします。デフォルトでは「OFF」になっています。

① 音声読み上げ | 読み上げ機能のON/OFFを切り替えます。 |
② 音量 | 読み上げ機能の音量を設定します。 |
③ 再生速度 | 読み上げ速度を設定します。 |
④ ピッチ | 読み上げ音声の高さを設定します。数が小さいほど低く、大きいほど高くなります。 |
2-10. AIモード選択
▼Open AI API連携
インターネットに接続して使用する機能です。

【事前準備】
OpenAIのサイトより、APIキーを取得してください。
OpenAI公式サイト:https://openai.com/ja-JP/api/
【設定手順】
① 設定画面より、「AIモード」で「Open AI API」を選択
②を押し、事前に取得したOpenAIの「APIキー」入力して保存
③ 任意のgptモデルを選択してを押し、設定完了

▼Open AI 互換 API連携
内部ネットワークに接続してMicrocosmを使用する機能です。

【事前準備】
☑ワークステーションの環境設定(別途)
☑ワークステーションより、エンドポイントとAPIキーを取得してください。
【設定手順】
① 設定画面より、「AIモード」で「Open AI 概要 API」を選択
② 各を押し、事前に取得した内部ネットワークの「エンドポイント」と「APIキー」入力して保存
③ ワークステーション内に設定した、任意のモデルを追加・選択して、設定完了
3. アプリの初期化方法
Microcosmアプリ自体をアンインストールした場合でも、履歴やモデル等のデータはローカル環境内に残っています。そのためMicrocosmで使用したデータを完全に初期化したい場合は、以下の手順を実施してください。
① アプリを終了する
② エクスプローラ上部に以下パスを入力し、Roamingフォルダを開く
C:\Users\{ユーザー}\AppData\Roaming
※{ユーザー}はPCにログイン中のアカウント情報に置き換えてください。
③ microcosmフォルダごと削除する
④ 実行ファイルを再度インストールする