python3 -m venv myenv
source myenv/bin/activate
pip install opencv-python
pyenvで仮想環境を作成
コメントを残す
python3 -m venv myenv
source myenv/bin/activate
pip install opencv-python
SeeStar_alp は、ASCOM Alpacaと組み合わせてSeeStarを自在に制御できる。また、標準のSeeStar APPと同時に併用できる点がすばらしい!
SeeStar_alpはサーバーとして機能し、pythomで記述されたスクリプト群であり、様々なプラットフォームで稼働できる。
https://github.com/smart-underworld/seestar_alp
Installation
Standalone package
Windows/Linux
The easiest way to install and run on Windows is to download a zip file that will allow you to run from one .exe file and everything will come up. If you want to run from source code then you will need to follow the Mac/Source install below.
Download win_seestar_alp.zip or linux_seestar_alp.zip from the lastest release tagged 1.1.0b1PullXXX at: https://github.com/rrowley42/seestar_alp/releases
SeeStar_alpをraspberry Piへインストールする専用のスクリプトが用意されている。
インストールが終わったら、http://SeeStar_alpのアドレス:5432/をブラウザーでアクセス。
Cartes du CielでASCOM Alpaca接続の設定画面
Stellariumの設定
pdfファイルをアップロードしてRAG(Retrieval-Augmented Generation)
参考動画 installの参考
https://www.youtube.com/watch?v=1xdneyn6zjw
Step 1: Install Ollama https://ollama.com/
Step 2: Copy and Paste Llama 3 install command using Terminal
Step 3: Add other LLM models (optional) https://ollama.com/library
Step 4: Install Docker https://www.docker.com/
Step 5: Install OpenWebUI https://docs.openwebui.com/getting-st...
Login to OpenWebUI and start using your local AI chatbot.
ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー
STEP1:ollamaの実行
C:\Users\ei2k-> ollama.exe run llama3.1
STEP2:docker desktop実行
STEP3:dockerでopen-webuiを実行
C:\Users\ei2k-> docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main