Dify
Pythonスクリプト import requests import json def post_request(api_key): url = "http://localhost/v1/chat-messages" headers = { "Authorization": f"Bearer {api_key}", "Content-Type": "application/json", } data = json.dumps({ "inputs": {}, "qu…
はじめに1台の使用していないPC(Ubuntu PC)でOllamaを実行してサーバーとして動かしてみました。別のWindows PCでWSL上のUbuntuにDifyをインストールして、他のPC(Ubuntu PC)のOllamaにアクセスします。家庭内のLANで接続しただけなので、この場合に「サ…
はじめにLM Studioは、ローカル環境で言語モデルを使用するためのアプリケーションです。LM Studioを言語モデルサーバとして機能させることもできるので今回はそちらを試してみました。Windows上にLM Studioをインストール公式ページから「LM-Studio-0.2.23-…
はじめにまっさらのUbuntu 22.04 on WSL2に「Dify」を動かす環境を構築するまでの全手順です。大規模言語モデルは無料のLlama3 8BをOllamaで動かして使います。最初の確認「/etc/wsl.conf」に以下が記入されていなかったら書き込んでおく必要があります。 [b…