Introduction Ollama is a powerful local LLM (Large Language Model) server that, by default, only accepts local connections. This guide provides detailed, OS-specific instructions for enabling external access to your Ollama server. Configuration Steps by Operating System 1. macOS Configuration Note: Don’t forget to configure your macOS firewall to allow incoming connections on port 11434.더 보기
[카테고리:] ollama
Complete Guide: From Ollama Installation to Mobile App Integration
Overview This technical guide covers the complete process of setting up Ollama, a local LLM server, including external access configuration and mobile app integration using MyOllama. 1. Introduction to Ollama Ollama is an open-source project enabling local execution of various LLMs (Llama, Mistral, Gemma, etc.) on personal computers. It ensures privacy through local execution and더 보기
[오픈소스]MyOllama – LLM 모바일 클라이언트
MyOllama는 Ollama가 설치된 컴퓨터에 접속하여 대규모 언어 모델(LLM)과 상호작용할 수 있는 모바일 클라이언트 앱입니다. 소스코드를 다운(https://github.com/bipark/my_ollama_app)받아 빌드 하거나 [애플 앱스토어](https://apps.apple.com/us/app/my-ollama/id6738298481)에서 MyOllama 앱을 다운로드할 수 있습니다. 소개 MyOllama를 사용하면 무료로 다양한 오픈 소스 LLM을 활용할 수 있습니다. Ollama 프로그램을 통해 자신의 컴퓨터에서 LLM을 실행하므로, 별도의 사용료 없이 AI 모델과 대화할 수 있습니다. 주요 기능 – 원격더 보기
Ollama 서버에 외부에서 접속하는 방법: OS별 가이드
Ollama 서버에 외부에서 접속하는 방법: OS별 가이드 Ollama는 강력한 로컬 LLM(Large Language Model) 서버입니다. 기본적으로 로컬 환경에서만 접근 가능하지만, 적절한 설정을 통해 외부에서도 접속할 수 있습니다. 아래와 같이 macOS, Ubuntu, Windows 각 운영체제별로 Ollama 서버를 외부에서 접속 가능하게 만드는 방법을 살펴보겠습니다. 1. macOS 1. 터미널을 열고 Ollama 설정 파일을 엽니다: 2. 다음 줄을 추가하여 모든더 보기