wiseflow/README_JP.md
2024-11-23 15:53:18 +08:00

18 KiB
Raw Blame History

最高情報責任者Wiseflow

English | 中文 | 한국어

🚀 最高情報責任者Wiseflowは、ウェブサイト、WeChat公式アカウント、ソーシャルプラットフォームなど、さまざまな情報源から設定された焦点に基づいて情報を抽出し、自動的にラベル付けしてデータベースにアップロードするアジャイルな情報マイニングツールです。

私たちが欠けているのは情報ではなく、大量の情報からノイズをフィルタリングし、価値ある情報を明らかにする能力です。

🔥 V0.3.8バージョン予告

wiseflowは2024年12月末までにバージョン0.3.8に正式にアップグレードされる予定で、これはV0.3.xアーキテクチャ下の最終バージョンとなります十分な小修正がない限り、V0.3.9バージョンはありません)。

計画されたアップグレード内容には以下が含まれます:

  • general_crawlerを大幅にアップグレード多くの最新のオープンソース技術ソリューションを導入、ページ適応範囲をさらに向上させ、完全なローカルCPU計算を実現つまり、これにLLMオプションを設定する必要がなくなります
  • general_crawlerのリストページからURLを抽出する能力、およびリストページと通常の記事ページを区別する能力を向上させる
  • 新しいmp_crawlerを導入し、WeChat公式アカウント記事の監視にwxbotを必要としないようにする試み
  • 新しい情報抽出llmモデルをテストし、抽出戦略を微調整する。

状況に応じて追加される可能性のある機能:

  • RSS情報源のサポートを導入
  • ソーシャルプラットフォームのサポートを導入(初期は非常に基本的なものになりますので、期待しすぎないでください)。

上記の内容はdevブランチに段階的にリリースされますので、切り替えて試してみて、積極的に問題をフィードバックしてください。


🌱 最高情報責任者がどのようにあなたの時間を節約し、無関係な情報をフィルタリングし、注目すべきポイントを整理するかを見てみましょう! 🌱

  • 汎用ウェブコンテンツパーサー、統計学習オープンソースプロジェクトGNEに依存とLLMを包括的に使用し、90%以上のニュースページに適合;
  • 非同期タスクアーキテクチャ;
  • LLMを使用した情報抽出とラベル分類9BサイズのLLMで完璧にタスクを実行できます

https://github.com/TeamWiseFlow/wiseflow/assets/96130569/bd4b2091-c02d-4457-9ec6-c072d8ddfb16

sample.png

wiseflowは一般的なクローラーツール、AI検索、知識ベースRAGプロジェクトとどう違うのか

皆様の厚い愛情に感謝し、wiseflowは2024年6月末にV0.3.0バージョンをリリースして以来、オープンソースコミュニティから広く注目を集め、多くのセルフメディアからの積極的な報道も引き寄せられました。まずは感謝の意を表します!

しかし、一部のフォロワーがwiseflowの機能の位置づけについて誤解を持っていることにも気づきました。誤解を避けるために、以下の表を作成し、wiseflowとクローラーツール、AI検索、知識ベースRAGプロジェクトの比較を明確に示します

首席情報官Wiseflow
クローラーツール wiseflowは多くの優れたオープンソースクローラーツールを統合し、LLMに基づく自動化された情報フィルタリング、選別、分類能力を追加しているため、簡単にwiseflow = クローラーツール + AIと考えることができます
AI検索 AI検索の主なアプリケーションシナリオは特定の問題の即時質問応答であり、例えば「XX会社の創設者は誰ですか」、「xxブランドのxx製品はどこで購入できますか」wiseflowの主なアプリケーションシナリオはある特定の情報の継続的な収集であり、例えばXX会社の関連情報の追跡、XXブランドの市場行動の継続的な追跡……これらのシナリオでは、ユーザーは注目点会社、ブランドを提供することしかできず、具体的な検索質問を立てることはできず、一回限りの検索ではなく、継続的な追跡、または自動化された関連追跡が必要です。wiseflowを、継続的にAI検索を自動的に行う「スマートエージェント」、つまり「AI情報官」と簡単に理解できます
知識ベースRAGプロジェクト 知識ベースRAGプロジェクトは通常、既存の情報に基づく下流のタスクであり、通常はプライベートな知識企業内の操作マニュアル、製品マニュアル、政府部門の文書などに対応しますwiseflowは現在、下流のタスクを統合しておらず、インターネット上の公開情報に対応しています

🔄 V0.3.1 アップデート

ダッシュボード部分は削除されました。ダッシュボードが必要な場合は、V0.2.1 バージョン をダウンロードしてください。

👏 9BサイズのLLMTHUDM/glm-4-9b-chatの一部は、安定した情報抽出出力を実現できますが、複雑な意味のタグ「党建設」などや特定の収集が必要なタグ「コミュニティ活動」のみを収集し、コンサートなどの大規模なイベント情報は含まないについては、 現在のプロンプトでは正確な抽出ができません。そこで、このバージョンでは各タグに説明フィールドを追加し、入力によってより明確なタグ指定ができるようにしました。

注:複雑な説明にはより大規模なモデルが必要です。詳細は [モデル推奨 2024-09-03](###-4. モデル推奨 [2024-09-03]) を参照してください

👏 また、前バージョンのプロンプト言語選択の問題出力結果には影響しませんに対処し、現在のバージョンではさらにシンプルなソリューションを採用しています。ユーザーはシステム言語を指定する必要がなくなりましたDockerではそれほど直感的ではありません、システムはタグとその説明に基づいてプロンプトの言語つまり情報の出力言語を判断し、wiseflowの展開と使用をさらに簡素化します。ただし、現在wiseflowは簡体字中国語と英語のみをサポートしており、他の言語のニーズはcore/insights/get_info.pyのプロンプトを変更することで実現できます

🌟 wiseflowをあなたのアプリケーションに統合する方法

wiseflowはネイティブのLLMアプリケーションで、7B〜9BサイズのLLMだけで情報のマイニング、フィルタリング、分類を効果的に行うことができ、ベクトルモデルは不要です。システムオーバーヘッドが非常に小さいため、さまざまなハードウェア環境でのローカルおよびプライベート展開に適しています。

wiseflowはマイニングされた情報を内蔵のPocketbaseデータベースに保存します。つまり、このシナリオではwiseflowのコードを理解する必要はなく、データベースに対して読み取り操作を行うだけです

PocketBaseは人気のある軽量データベースで、現在Go/Javascript/Pythonなどの言語のSDKがあります。

📥 インストールと使用方法

1. リポジトリのクローン

🌹 スターリングとフォークは良い習慣です 🌹

git clone https://github.com/TeamWiseFlow/wiseflow.git
cd wiseflow

2. Dockerを使用して実行することを推奨

docker compose up

注意:

コンテナのタイムゾーンと言語を変更したい場合は、以下のコマンドでイメージを実行してください

docker run -e LANG=zh_CN.UTF-8 -e LC_CTYPE=zh_CN.UTF-8 your_image

2. [代替案] Pythonを直接使用して実行

conda create -n wiseflow python=3.10
conda activate wiseflow
cd core
pip install -r requirements.txt

その後、core/scriptsのスクリプトを参照してpb、task、backendを個別に起動してくださいスクリプトファイルをcoreディレクトリに移動してください

注意:

📚 開発者向け、詳細は/core/README.mdを参照してください

pocketbaseを介して取得したデータ

http://127.0.0.1:8090/_/ - 管理者ダッシュボードUI

http://127.0.0.1:8090/api/ - REST API

3. 設定

ディレクトリ内のenv_sampleをコピーし、.envに名前を変更して、以下のように設定情報LLMサービストークンなどを入力してください

WindowsユーザーがPythonプログラムを直接実行する場合、「スタート - 設定 - システム - バージョン情報 - 詳細システム設定 - 環境変数」で以下の項目を設定し、ターミナルを再起動して有効にしてください

  • LLM_API_KEY # 大規模モデル推論サービスAPIキー

  • LLM_API_BASE # このプロジェクトはopenai sdkに依存しており、モデルサービスがopenaiインターフェースをサポートしている場合、この項目を設定することで正常に使用できます。openaiサービスを使用する場合、この項目を削除してください

  • WS_LOG="verbose" # デバッグ観察を開始するかどうかを設定します。必要がない場合は削除してください

  • GET_INFO_MODEL # 情報抽出とラベルマッチングタスクのモデル、デフォルトはgpt-4o-mini-2024-07-18

  • REWRITE_MODEL # 類似情報のマージと書き換えタスクのモデル、デフォルトはgpt-4o-mini-2024-07-18

  • HTML_PARSE_MODEL # ウェブページ解析モデルGNEアルゴリズムが効果的でない場合に自動的に有効になります、デフォルト

  • PROJECT_DIR # データ、キャッシュおよびログファイルの保存場所、コードリポジトリに対する相対パス、デフォルトでは空欄でコードリポジトリ内に保存

  • PB_API_AUTH='email|password' # pbデータベース管理者のメールアドレスとパスワード必ずメールアドレスを使用してください、フィクションのメールアドレスでも可

  • PB_API_BASE # 通常の使用にはこの項目は必要ありません、デフォルトのpocketbaseローカルインターフェース8090を使用しない場合のみ指定します

4. モデル推奨 [2024-09-03]

反復テストを経て(中国語・英語タスク)GET_INFO_MODELREWRITE_MODELHTML_PARSE_MODEL の最小利用可能なモデルはそれぞれ:"THUDM/glm-4-9b-chat""Qwen/Qwen2-7B-Instruct""Qwen/Qwen2-7B-Instruct" です。

現在、SiliconFlowはQwen2-7B-Instruct、glm-4-9b-chatのオンライン推論サービスが無料であることを公式に発表しました。これは、あなたが「ゼロコスト」でwiseflowを利用できることを意味します

😄 ご好意ある限り、私のsiliconflow招待リンクを使用していただけると、私もより多くのトークン報酬を得ることができます 😄

⚠️ V0.3.1 更新

説明付きの複雑なタグを使用している場合、glm-4-9b-chat規模のモデルでは正確な理解が保証できません。現時点でのテスト結果では、この種類のタスクに対して効果が高いモデルは Qwen/Qwen2-72B-Instructgpt-4o-mini-2024-07-18 です。

5. 関心事項と定期スキャン情報ソースの追加

プログラムを起動したら、pocketbase AdminダッシュボードUI (http://127.0.0.1:8090/_/) を開きます。

5.1 tagsフォームを開く

このフォームを通じてあなたの関心事項を指定することができます。LLMはこれに基づいて情報を抽出、フィルタリングし、分類します。

tags のフィールド説明:

  • name, 関心事項の名前
  • explaination, 関心事項の詳細な説明または具体的な規定、例えば「上海市の公的な中学校進学情報のみ」(タグ名は「上海中学校進学情報」)
  • activated, 有効化されているかどうか。無効化するとその関心事項は無視されます。無効化後も再度有効化することができます。Dockerコンテナの再起動は必要ありません、次の定期タスク時に更新されます。

5.2 sitesフォームを開く

このフォームを通じてカスタム情報ソースを指定できます。システムはバックグラウンドで定期タスクを開始し、情報ソースのスキャン、解析、分析を行います。

sites のフィールド説明:

  • url, 情報ソースのURL、具体的な記事ページではなくリストページを指定してください。
  • per_hours, スキャン頻度、時間単位、整数型124の範囲、スキャン頻度は1日に1回を超えないように、つまり24と設定することを推奨します
  • activated, 有効化されているかどうか。無効化するとその情報ソースは無視されます。無効化後も再度有効化することができます。Dockerコンテナの再起動は必要ありません、次の定期タスク時に更新されます。

6. ローカル展開

ご覧の通り、本プロジェクトは最低でも7b/9bサイズのLLMを使用するだけでよく、任意のベクトルモデルは必要ありません。つまり、3090RTX24GB VRAMがあれば本プロジェクトを完全にローカルで展開することが可能です。

あなたのローカル展開LLMサービスがopenai SDKと互換性があることを確認し、LLM_API_BASE を設定してください。

7b9b規模のLLMがタグの説明を正確に理解できるようにするためには、dspyを使用したプロンプトの最適化が推奨されますが、これは約50件の手動ラベル付けデータの累積が必要となります。詳しくは DSPy をご覧ください。

🛡️ ライセンス

本プロジェクトは Apache2.0 ライセンスの元でオープンソースです。

商用利用およびカスタマイズ協力については、Email35252986@qq.com までお問い合わせください。

  • コマーシャル顧客は私たちに報告して登録してください、製品は永久に無料です。

📬 連絡先

何か質問や提案がありましたら、issue を通じて私たちと連絡を取りましょう。

🤝 本プロジェクトは以下の優れたオープンソースプロジェクトに基づいています:

Citation

本プロジェクトの一部または全部を参考にしたり引用したりする場合は、以下の情報を明記してください:

AuthorWiseflow Team
https://github.com/TeamWiseFlow/wiseflow
Licensed under Apache2.0