LM Studio is a powerful tool for running large language models locally, but by default, it only allows access from your local machine. Whether you want to share your AI models with team members, access them from different devices, or integrate them into external applications, enabling external access can be incredibly useful. In this guide,더 보기
[태그:] LLM
[오픈소스]MyOllama – LLM 모바일 클라이언트
MyOllama는 Ollama가 설치된 컴퓨터에 접속하여 대규모 언어 모델(LLM)과 상호작용할 수 있는 모바일 클라이언트 앱입니다. 소스코드를 다운(https://github.com/bipark/my_ollama_app)받아 빌드 하거나 [애플 앱스토어](https://apps.apple.com/us/app/my-ollama/id6738298481)에서 MyOllama 앱을 다운로드할 수 있습니다. 소개 MyOllama를 사용하면 무료로 다양한 오픈 소스 LLM을 활용할 수 있습니다. Ollama 프로그램을 통해 자신의 컴퓨터에서 LLM을 실행하므로, 별도의 사용료 없이 AI 모델과 대화할 수 있습니다. 주요 기능 – 원격더 보기
Ollama 서버에 외부에서 접속하는 방법: OS별 가이드
Ollama 서버에 외부에서 접속하는 방법: OS별 가이드 Ollama는 강력한 로컬 LLM(Large Language Model) 서버입니다. 기본적으로 로컬 환경에서만 접근 가능하지만, 적절한 설정을 통해 외부에서도 접속할 수 있습니다. 아래와 같이 macOS, Ubuntu, Windows 각 운영체제별로 Ollama 서버를 외부에서 접속 가능하게 만드는 방법을 살펴보겠습니다. 1. macOS 1. 터미널을 열고 Ollama 설정 파일을 엽니다: 2. 다음 줄을 추가하여 모든더 보기
MirrorOn
LLM(Large Language Model)은 이제 없으면 아쉬운 존재입니다. 개발자 입장에서는 벌써 2년째 Github Copilot을 코딩도우미로 잘 쓰고 있었지만 ChatGPT, Claude가 좀 더 좋은 코드를 만들어 주는 상황이 되었고, 최근 검색증강생성(RAG – Retrieval-Augmented Generation)이 개발자 입장에서 중요한 키워드가 되어서 MML의 구조와 Api에 대한 공부를 하지 않을수 없게 되어서 공부를 시작했습니다. 공부에 가장 빠른 방법은 가르치거나 만들어 보는것이라고더 보기