[오픈소스]MyOllama – LLM 모바일 클라이언트

MyOllama는 Ollama가 설치된 컴퓨터에 접속하여 대규모 언어 모델(LLM)과 상호작용할 수 있는 모바일 클라이언트 앱입니다. 소스코드를 다운(https://github.com/bipark/my_ollama_app)받아 빌드 하거나 [애플 앱스토어](https://apps.apple.com/us/app/my-ollama/id6738298481)에서 MyOllama 앱을 다운로드할 수 있습니다. 소개 MyOllama를 사용하면 무료로 다양한 오픈 소스 LLM을 활용할 수 있습니다. Ollama 프로그램을 통해 자신의 컴퓨터에서 LLM을 실행하므로, 별도의 사용료 없이 AI 모델과 대화할 수 있습니다. 주요 기능 – 원격더 보기

Ollama 서버에 외부에서 접속하는 방법: OS별 가이드

Ollama 서버에 외부에서 접속하는 방법: OS별 가이드 Ollama는 강력한 로컬 LLM(Large Language Model) 서버입니다. 기본적으로 로컬 환경에서만 접근 가능하지만, 적절한 설정을 통해 외부에서도 접속할 수 있습니다. 아래와 같이 macOS, Ubuntu, Windows 각 운영체제별로 Ollama 서버를 외부에서 접속 가능하게 만드는 방법을 살펴보겠습니다. 1. macOS 1. 터미널을 열고 Ollama 설정 파일을 엽니다: 2. 다음 줄을 추가하여 모든더 보기

V-RAG: AI 기반 강의 동영상 분석, 상호작용 플랫폼 출시

V-RAG는 최첨단 AI 기술을 활용하여 강의 동영상을 분석하고 수강자와 상호작용을 하는 플랫폼입니다. 동영상만 업로드하면 강의의 모든 정보가 생성되고 수강자가 강의 내용에 대해 질문하고, 실시간으로 응답을 받을 수 있습니다. V-RAG의 핵심 기술 스택 1. 대규모 언어 모델 (LLM): 자연어 처리의 핵심으로, 텍스트 이해와 생성에 사용됩니다. 2. Retrieval-Augmented Generation (RAG): 정보 검색과 텍스트 생성을 결합하여 정확하고 관련성더 보기

LLM이 여러분의 PDF 문제를 해결해드립니다 – Ollama-Gemma2와 함께하는 프로젝트 이야기

여러분, 혹시 문서 더미 속에서 중요한 정보를 찾아야 했던 적 있나요? 직접 검사하고, 요약하는 일이 얼마나 힘든지 잘 아실 겁니다. 오늘은 이런 문제를 Python과 머신러닝(LMM)으로 해결하는 방법을 나눠보려 합니다. 프로젝트의 하이라이트는 Local 모델인 Ollama-Gemma2를 사용하여 PDF 데이터를 RAG(Retrieval-Augmented Generation) 모델로 검색하고 요약하는 것입니다. PDF 데이터를 SQLite와 PostgreSQL에 저장하기! 여러분이 알고 계셔야 할 첫 번째 개념은더 보기

MirrorOn

LLM(Large Language Model)은 이제 없으면 아쉬운 존재입니다. 개발자 입장에서는 벌써 2년째 Github Copilot을 코딩도우미로 잘 쓰고 있었지만 ChatGPT, Claude가 좀 더 좋은 코드를 만들어 주는 상황이 되었고, 최근 검색증강생성(RAG – Retrieval-Augmented Generation)이 개발자 입장에서 중요한 키워드가 되어서 MML의 구조와 Api에 대한 공부를 하지 않을수 없게 되어서 공부를 시작했습니다. 공부에 가장 빠른 방법은 가르치거나 만들어 보는것이라고더 보기