curl -fsSL <https://ollama.com/install.sh> | sh
ollama serve
ollama run llama3.1:70b
ollama run vanilj/reflection-70b-iq2_xxs
curl -fsSL <https://nvidia.github.io/libnvidia-container/gpgkey> | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \\
&& curl -s -L <https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list> | \\
sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \\
sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
sudo apt-get update
sudo apt-get install -y nvidia-container-toolkit
Ollama와 WebUI를 연결하여 사용하려면 Ollama 서버를 백엔드로 실행한 뒤 WebUI에서 이를 프론트엔드로 연결하는 방식으로 진행할 수 있습니다. 아래 단계별로 Ollama와 WebUI를 연결하는 방법을 설명할게요.
우선 Ollama 서버가 백그라운드에서 실행되어야 합니다. Ollama가 이미 설치되어 있다면, 다음 명령으로 Ollama 서버를 실행할 수 있어요:
bash
코드 복사
ollama serve
이 명령을 통해 Ollama 서버가 실행되며, 기본적으로 localhost
에서 특정 포트(예: 11434)로 요청을 받을 준비가 됩니다. 필요하다면 포트를 지정하여 실행할 수 있습니다:
bash
OLAMA_HOST="<http://0.0.0.0:11434>" ollama serveve
이제 WebUI에서 Ollama 서버와 연결할 수 있도록 설정을 추가해야 합니다.