미분류 (6) 썸네일형 리스트형 Redis Redis(Remote Dictionary Storage,레디스)는 모든 데이터를 메모리에 저장하고 조회하는 in-memory DB, 모든 데이터를 메모리로 불러와서 처리하는 메모리 기반의 key-value 구조의 데이터 관리 시스템(DBMS)이다. 일종의 NoSQL이다. 주요 특징• 인메모리 데이터베이스: 모든 데이터를 메모리에 저장하여 매우 빠른 읽기/쓰기 속도를 제공합니다.• 키-값 구조: 데이터를 키-값 쌍으로 저장하며, 복잡한 쿼리 없이 간단하게 데이터에 접근할 수 있습니다.• 다양한 데이터 구조: 문자열, 리스트, 해시, 셋, 정렬된 셋 등 다양한 데이터 타입을 지원합니다.• 영속성: RDB와 AOF 방식을 통해 데이터를 디스크에 저장하여 영속성을 보장할 수 있습니다. 주요 용도• 캐싱: 자주.. Failed to calculate the value of task ':compileJava' property 'javaCompiler'. 프로젝트 버전이 안맞을 경우 나오는 메시지 gradle 빌드시 나오는 메시지 build.gradle 파일에 해당부분 확인이 필요함languageVersion = JavaLanguageVersion.of(17) languageVersion = JavaLanguageVersion.of(23) 수정 후 빌드 성공BUILD SUCCESSFUL in 57ms1 actionable task: 1 executed3:07:45 PM: Execution finished. ollama 질의 (+apikey) 질의를 하면서 APIKEY 가 필요하다는 메시지가 출력되었다import requestsimport jsonurl = 'http://localhost:11434/api/generate'payload = { 'model': 'llama3', 'prompt': '올라마랑 python 예제코드 작성해줘'}response = requests.post(url, data=json.dumps(payload))print(f"Content-Type:{response.headers.get('Content-Type')}")#responseStr = ""import requestsimport jsonurl = 'http://localhost:11434/api/generate'payload = { 'model':.. ollama generate 예제 ----------------------------------------import requestsurl = 'http://localhost:11434/api/generate'payload = { 'model': 'llama3', 'prompt': '왜 하늘은 파란가요?'}response = requests.post(url, json=payload)print(response.json()['response']) NotOpenSSLWarning 문제를 해결하고도 제대로 실행이 되지 않았다Traceback (most recent call last): File "/Users/{}/python_sample/ollama/ollama_test.py", line 11, in print(respons.. NotOpenSSLWarning: urllib3 v2.0 only supports OpenSSL 1.1.1+ 에러 ----------------------------------------import requestsurl = 'http://localhost:11434/api/generate'payload = { 'model': 'llama3', 'prompt': '왜 하늘은 파란가요?'}# print(payload)# print(payload)response = requests.post(url, json=payload)print(response.json()['response']) 위 코드를 실행하는데 "NotOpenSSLWarning: urllib3 v2.0 only supports OpenSSL 1.1.1+" 에러가 발생했다 NotOpenSSLWarning 메세지는 python ssl 모듈이 libreSS.. Ollama 시작하기 로컬에 설치하는 LLM 인 Ollama 시작하기 MAC에 Ollama 설치하기> brew install ollama설치 확인하기> ollama list올라마 실행하기> ollama run llama3(없으면 다운로드하고 있으면 실행한다)더보기한글버전 설치하기https://hyunicecream.tistory.com/126?t질의하기 이전 1 다음