일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- Inductive Bias
- 연산량 감소
- depthwise convolution
- feature map
- 백준
- BFS
- Depthwise Separable Convolution
- 인접행렬
- pytorch
- bottleneck
- 엔터티
- skip connection
- SQL
- resnet
- 1x1 Convolution
- Two Pointer
- 식별자
- 정규화
- SQLD 후기
- get_dummies()
- 데이터모델링
- CROSS JOIN
- mobilenet
- dfs
- dp
- numpy
- SQLD
- 인접리스트
- outer join
- 그래프
- Today
- Total
목록분류 전체보기 (87)
SJ_Koding
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/GNHo4/btsH38axSXR/mHkmP96SdKMKNE1ci7SibK/img.png)
어느덧 3차 신청기간인데 이제서야 1차 합격 후기를 올린다. 중간에 취업을 하고 여러 대회도 나가면서 실기를 응시하지 못했는데 이번 3차 정보처리기사 실기를 응하려고 한다.공부기간: 3일, 71점 합격*여기서 말하는 3일은 독서실에서 아침부터 밤까지 정처기 공부에 올인한 시간이다.필자는 컴퓨터공학과를 전공했기 때문에 특히 4과목은 큰 자신이 있었다. C언어, Python언어, Java언어 정말 즐겨했던 과목이기 때문이다.(게다가 실무에서 Python쓰는중) 그래서 ADsP나 SQLD도 마찬가지였는데, 단순 암기가 필요한 과목이 정말 약했다. 암기는 질색이다.* 혹시 다른 자격증 후기도 보고싶다면? ADsP, 데이터 분석 준전문가 2일 공부 합격후기 (40회, 전공자 기준)예전에 KT AIVLE SCH..
langchain의 LlamaCPP를 사용하다가. 테스트로 vllm을 사용했을 때 평소 13GB정도 먹었던 애가 느닷없이 70GB를 넘게 잡아먹었다.먼저 VLLM(Very Large Language Models)은 대규모 언어 모델의 효율적인 추론을 위해 설계된 시스템이다. 특히, VLLM은 모델 추론 중에 반복적으로 참조되는 데이터의 캐싱을 위해 키-값 캐시(KV Cache)를 사용한다. KV Cache는 트랜스포머 모델의 각 레이어에서 생성된 키(Key)와 값(Value) 텐서를 저장하여, 동일한 입력에 대해 반복적인 계산을 피하고 성능을 최적화한다.KV Cache는 다음과 같은 장점을 제공한다:추론 속도 향상: 반복되는 계산을 줄여 추론 속도를 크게 향상시킨다.메모리 사용 최적화: 캐싱을 통해 필요..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/kFkQZ/btsH4gzqEyL/KWZHXAvkZ69LdyS01KOlK1/img.png)
개요문서에서 텍스트를 추출하는건 다양하게 쓰일 수 있는데, LLM에 도입할때 꽤 유용하게 쓰일 수 있다. 이를테면 챗봇에 문서를 업로드하면 해당 문서를 요약할 수 있도록 할 수 있는데(물론 PNG파일과 같은 이미지 파일은 OCR기술이 필요하다), 그러기 위해서는 문서 내의 텍스트를 추출하여 해당 데이터를 LLM모델에 넘겨줘야한다. 데이터를 추출하면 추가 가공하거나 추출된 원본 그대로를 LLM모델에 넣어주면 알아서 잘 해석하고 답변을 생성한다.(당연히 LLM성능에 따라 답변 퀄리티가 달라진다.)Python의 확장성이란,, 상상 이상이다. 거의 모든 확장자의 문서파일에서 텍스트를 추출할 수 있는 기능을 제공한다.(진짜쉽다)해당 포스팅에서는 PPT, PDF, DOCX, HWP, XLSX등의 확장자 파일들을 포..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/drT5qJ/btsH3m8dwEx/QepKTh4DWyGN8l2gWDepTk/img.webp)
만약 100GB짜리의 파일을 옮겨야할때, A라는 서버와 B서버가 있고(이하 각각 A, B로 칭함), A에서 B로 파일을 전송한다고 하자.가장 쉬운 방법은 A라는 서버에서 파일을 로컬로 다운받고 로컬에서 다시 B서버로 전송하는 방법이있는데,이렇게하면 교수님이나 직장 상사가 엉덩이를 토닥이며 극찬을 퍼붓는다.사실 A에서 B로 바로 전송하는게 가장 현명하고 빠른 방법인데,미리 말하면 환경에 따라 다르겠지만A -->로컬 : 20시간 소요, A-->B: 20분 소요 정도의유의미한 차이를 확인했다. 또한 인증 과정에서 ppk파일을 사용하는 경우 어떻게 하면 될까?1. PuttyGen 설치 (ppk파일이 없을경우)먼저, ppk 파일을 생성하거나 변환하기 위해서는 PuttyGen이 필요하다. PuttyGen은 PuTT..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/WXRM0/btsHEEupiB2/kkK6HOKxMch7V4NEw1JFlK/img.gif)
LLM 모델을 기능에 따라 파인튜닝 시켜 챗봇 시스템을 구축하고, 웹 개발팀에 넘기기 전 LLM의 실시간 스트리밍 출력과, 출력이 Markdown언어일 때 ChatGPT처럼 실시간으로 Markdown문법이 적용되게 끔 구현해보았다.웹 개발자가 아니어서 가장 Basic한 언어를 사용했다. 프론트 : HTML, CSS, JavaScript백엔드: FastAPI만약 ChatGPT처럼 가독성 좋게 답변하길 원한다면, 아래 과정을 거치기 전에 System 프롬프트 튜닝으로 "markdown 형식으로 가독성 좋게 답변해줘" 식으로 프롬프트를 추가해주자.# 내용- 그러면 이런식으로- markdown 문법에 따라 그대로 변환없이 반환할텐데## 변환 방법- 그 방법을 아래에 소개하겠다. MD변환 방법론 요약:스트리밍 ..
요약:문제 코드pip freeze > requirements.txt해결 코드pip list --format=freeze > requirements.txt파이썬을 사용한다면 다른 가상환경, 다른 PC, local --> server, 경진대회 검증소스코드등 환경 자체를 옮겨야하는 경우가 굉장히 많다.그러기 위해서는 깔려있는 라이브러리와 각각의 버전을 통째로 알고 옮겨야하는데, 대게 requirements.txt라는 파일명을 사용하여 라이브러리를 옮기곤 한다.이를 위해 터미널에서 널리 알려진 아래의 명령을 사용한다.pip freeze > requirements.txtabsl-py==1.4.0accelerate==0.23.0aiohttp @ file:///rapids/aiohttp-3.8.4-cp310-cp3..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/r27mz/btsHnu5EMgQ/ijLrzIHTU7bggNkiWONV6K/img.png)
해당 포스팅은 이전 글과 이어진 포스팅입니다. 개인적으로 下편에 재밌는 내용이 많은 것 같습니다. 논문 전체내용을 제가 이해한대로 빠짐없이 기입하기 때문에, 낮은 확률로 잘못된 내용이 포함되어있을 수 있으며 글이 길게 나열되어있습니다. 가독성을 위해 section이나 중요부분은 컬러로 표시합니다. 2024.05.03 - [LLM] - [LLM] 적은 데이터로 fine-tuning하자! LIMA: Less Is More for Alignment 리뷰 (Meta, 2023) - 上편 [LLM] 적은 데이터로 fine-tuning하자! LIMA: Less Is More for Alignment 리뷰 (Meta, 2023) - 上편LLM을 파인튜닝 할 일이 생겼는데, 무엇보다 새로운 도메인에서 잘 추론할 수 있..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/nXZib/btsG2nfDyp9/APwkjSuBSvQnIubCmKL8aK/img.png)
LLM을 파인튜닝 할 일이 생겼는데, 무엇보다 새로운 도메인에서 잘 추론할 수 있도록 하기위해 데이터셋이 당연히 많아야 한다고 생각했었다. 예를 들어 Function calling기능을 수행할 때, Function을 어느 prompt에서 호출할 지 잘 알기 위해서는 당연히 수많은 데이터셋으로 이를 구별시켜야 한다고 생각했다.그런데, 이 생각이 편향된 생각임을 깨닫게 된 논문이 Meta에서 발표한 LIMA: Less Is More for Alignment(2023) 논문이다. Abstract저자는 LLM이 훈련되는 두 단계에 대해 설명하고 있다. 첫 번째는 unsupervised pretraining으로 raw text로부터 general-purpose representations을 학습한다는 것이고, 두..