| ์ผ | ์ | ํ | ์ | ๋ชฉ | ๊ธ | ํ |
|---|---|---|---|---|---|---|
| 1 | ||||||
| 2 | 3 | 4 | 5 | 6 | 7 | 8 |
| 9 | 10 | 11 | 12 | 13 | 14 | 15 |
| 16 | 17 | 18 | 19 | 20 | 21 | 22 |
| 23 | 24 | 25 | 26 | 27 | 28 | 29 |
| 30 |
- ์ธ์ ํ๋ ฌ
- dp
- ์๋ณ์
- SQLD ํ๊ธฐ
- pytorch
- resnet
- Two Pointer
- ์ํฐํฐ
- ์ธ์ ๋ฆฌ์คํธ
- BFS
- Depthwise Separable Convolution
- ์ ๊ทํ
- 1x1 Convolution
- mobilenet
- ๊ทธ๋ํ
- Inductive Bias
- get_dummies()
- numpy
- feature map
- depthwise convolution
- ๋ฐฑ์ค
- bottleneck
- CROSS JOIN
- ์ฐ์ฐ๋ ๊ฐ์
- SQL
- SQLD
- dfs
- skip connection
- outer join
- ๋ฐ์ดํฐ๋ชจ๋ธ๋ง
- Today
- Total
๋ชฉ๋ก์ ์ฒด ๊ธ (89)
SJ_Koding
ํด๋น ํฌ์คํ ์ ์ด์ ๊ธ๊ณผ ์ด์ด์ง ํฌ์คํ ์ ๋๋ค. ๊ฐ์ธ์ ์ผ๋ก ไธํธ์ ์ฌ๋ฐ๋ ๋ด์ฉ์ด ๋ง์ ๊ฒ ๊ฐ์ต๋๋ค. ๋ ผ๋ฌธ ์ ์ฒด๋ด์ฉ์ ์ ๊ฐ ์ดํดํ๋๋ก ๋น ์ง์์ด ๊ธฐ์ ํ๊ธฐ ๋๋ฌธ์, ๋ฎ์ ํ๋ฅ ๋ก ์๋ชป๋ ๋ด์ฉ์ด ํฌํจ๋์ด์์ ์ ์์ผ๋ฉฐ ๊ธ์ด ๊ธธ๊ฒ ๋์ด๋์ด์์ต๋๋ค. ๊ฐ๋ ์ฑ์ ์ํด section์ด๋ ์ค์๋ถ๋ถ์ ์ปฌ๋ฌ๋ก ํ์ํฉ๋๋ค. 2024.05.03 - [LLM] - [LLM] ์ ์ ๋ฐ์ดํฐ๋ก fine-tuningํ์! LIMA: Less Is More for Alignment ๋ฆฌ๋ทฐ (Meta, 2023) - ไธํธ [LLM] ์ ์ ๋ฐ์ดํฐ๋ก fine-tuningํ์! LIMA: Less Is More for Alignment ๋ฆฌ๋ทฐ (Meta, 2023) - ไธํธLLM์ ํ์ธํ๋ ํ ์ผ์ด ์๊ฒผ๋๋ฐ, ๋ฌด์๋ณด๋ค ์๋ก์ด ๋๋ฉ์ธ์์ ์ ์ถ๋ก ํ ์ ์..
LLM์ ํ์ธํ๋ ํ ์ผ์ด ์๊ฒผ๋๋ฐ, ๋ฌด์๋ณด๋ค ์๋ก์ด ๋๋ฉ์ธ์์ ์ ์ถ๋ก ํ ์ ์๋๋ก ํ๊ธฐ์ํด ๋ฐ์ดํฐ์ ์ด ๋น์ฐํ ๋ง์์ผ ํ๋ค๊ณ ์๊ฐํ์๋ค. ์๋ฅผ ๋ค์ด Function calling๊ธฐ๋ฅ์ ์ํํ ๋, Function์ ์ด๋ prompt์์ ํธ์ถํ ์ง ์ ์๊ธฐ ์ํด์๋ ๋น์ฐํ ์๋ง์ ๋ฐ์ดํฐ์ ์ผ๋ก ์ด๋ฅผ ๊ตฌ๋ณ์์ผ์ผ ํ๋ค๊ณ ์๊ฐํ๋ค.๊ทธ๋ฐ๋ฐ, ์ด ์๊ฐ์ด ํธํฅ๋ ์๊ฐ์์ ๊นจ๋ซ๊ฒ ๋ ๋ ผ๋ฌธ์ด Meta์์ ๋ฐํํ LIMA: Less Is More for Alignment(2023) ๋ ผ๋ฌธ์ด๋ค. Abstract์ ์๋ LLM์ด ํ๋ จ๋๋ ๋ ๋จ๊ณ์ ๋ํด ์ค๋ช ํ๊ณ ์๋ค. ์ฒซ ๋ฒ์งธ๋ unsupervised pretraining์ผ๋ก raw text๋ก๋ถํฐ general-purpose representations์ ํ์ตํ๋ค๋ ๊ฒ์ด๊ณ , ๋..
LLaMA์ Instruction finetuning๊ฒฐ๊ณผ์ bias, toxicity, misinformation๋ฑ LLM์ ๋ํ์ ์ธ ๋ฌธ์ ์ ์ ๋๋ฅผ ๋ํ ์ผํ๊ฒ ํ๊ฐํ๋ค. LLaMA-1์ ๋ฌธ์ ์ ์ ํด๊ฒฐํ ํ ์คํฌ๋ ์ผ๋ถ ์์ง๋ง, ์ฌ์ ํ ํด๊ฒฐํ์ง ๋ชปํ ํ ์คํฌ๋ ์กด์ฌํ๋ค. ํด๋น ํฌ์คํ ์ ์ด์ ๊ธ๋ค๊ณผ ์ด์ด์ง๋ ๋ด์ฉ์ด๋ค. LLaMA: Open and Efficient Foundation Language Models๋ฅผ ์์๋ณด์ - 3ํธ, Main ResultLLaMA์ ์ฑ๋ฅ ๋น๊ต์คํ ๊ฒฐ๊ณผ๋ฅผ ์์ธํ ๊ธฐ์ ํ๋ค. ํ ์คํฌ๋ณ๋ก ํ์ ์น์ ์ ๋๋์์ผ๋ฉฐ ์ด๋ค์์ผ๋ก ์คํ์ ๊ตฌ์ฑํ๋์ง ์ ์ค๋ช ๋์ด์๋ค. LLaMA๊ฐ ๋น์ ์ ๊ฐ๊ด๋ฐ์๋์ง ์ ์ ์๋ ์น์ ์ธ ๊ฒ ๊ฐ๋ค.Intsjkoding.tistory.com 4. Instruction..
LLaMA์ ์ฑ๋ฅ ๋น๊ต์คํ ๊ฒฐ๊ณผ๋ฅผ ์์ธํ ๊ธฐ์ ํ๋ค. ํ ์คํฌ๋ณ๋ก ํ์ ์น์ ์ ๋๋์์ผ๋ฉฐ ์ด๋ค์์ผ๋ก ์คํ์ ๊ตฌ์ฑํ๋์ง ์ ์ค๋ช ๋์ด์๋ค. LLaMA๊ฐ ๋น์ ์ ๊ฐ๊ด๋ฐ์๋์ง ์ ์ ์๋ ์น์ ์ธ ๊ฒ ๊ฐ๋ค.Introduction, Approach๊ฐ ๊ถ๊ธํ๋ฉด ์๋ ๋งํฌ๋ฅผ ํด๋ฆญ! LLaMA: Open and Efficient Foundation Language Models๋ฅผ ์์๋ณด์ - 2ํธ, Approch์ด์ ๊ธ์ ์ด์ด Approch์ ๋ํ ๋ด์ฉ์ด๋ค. ์ด์ ๊ธ๊ณผ ๋ค๋ฅด๊ฒ ์ง๊ธ๋ถํฐ๋ ํต์ฌ๋ง ์์ฝํ๋ค. LLaMA-1์ Pre-training, Architecture, Optimizer, Efficient implementation์ ์ ๋ฆฌํ๋ค. LLM ๋ชจ๋ธ์์ ์ด๋ค์์ผ๋ก ๋ฐ์ดํฐ์ ์sjkoding.tistory.c..
์ด์ ๊ธ์ ์ด์ด Approch์ ๋ํ ๋ด์ฉ์ด๋ค. ์ด์ ๊ธ๊ณผ ๋ค๋ฅด๊ฒ ์ง๊ธ๋ถํฐ๋ ํต์ฌ๋ง ์์ฝํ๋ค. LLaMA-1์ Pre-training, Architecture, Optimizer, Efficient implementation์ ์ ๋ฆฌํ๋ค. LLM ๋ชจ๋ธ์์ ์ด๋ค์์ผ๋ก ๋ฐ์ดํฐ์ ์ ๊ตฌ์ถํ๊ณ , ์ผ๋งํผ์ ์์์ ์ฌ์ฉํ๋์ง, ์ด๋ค์์ผ๋ก ํ์ตํ๋์ง๋ฅผ ํ์ ํ ์ ์๋ ์น์ ์ด๋ค. ํด๋น ์น์ ์ ๋ฆฌ๋ทฐํ๋ฉด์ ๋๊ฐ LLM์ ์ ๋ฐ์ ์ธ ์ ๊ทผ๋ฐฉ์์ ํ์ ํ ์ ์์๋ค. LLaMA: Open and Efficient Foundation Language Models๋ฅผ ์์๋ณด์ - 1ํธ, Introduction ํด๋น ๋ ผ๋ฌธ์ ๋ณด๋ฉด์ LLM ์ฐ๊ตฌ์ ํฐ ํ๋ฆ์ ๋๊ฐ์ด๋ผ๋ ํ์ ํ ์ ์์๋ค. ์ต๊ทผ์ LLaMA2์ ๋นํด ๋น์ฝ์ ์ผ๋ก ์ฑ๋ฅ์ ํฅ์์ํจ (L..
ํด๋น ๋ ผ๋ฌธ์ ๋ณด๋ฉด์ LLM ์ฐ๊ตฌ์ ํฐ ํ๋ฆ์ ๋๊ฐ์ด๋ผ๋ ํ์ ํ ์ ์์๋ค. ์ต๊ทผ์ LLaMA2์ ๋นํด ๋น์ฝ์ ์ผ๋ก ์ฑ๋ฅ์ ํฅ์์ํจ (LLaMA3-8B๊ฐ LLaMA2-70B๋ฅผ ์ด๊น;;) LLaMA3์คํ์์ค๊ฐ hugging face์ ๊ณต๊ฐ๋๋ฉด์ ๋์ฑ ๊ถ๊ธ์ฆ์ด ์๊ฒผ๋ค. LLM์ ํ ์ผ์ด ์๊ฒผ๋๋ฐ, Vision์ ์ ์ ์ ์ด๋๊ณ LLM ๊ณต๋ถ์ ํฌ์ํด์ผ๊ฒ ๋ค. LLaMA๋ชจ๋ธ์ Meta์์ ๋ฐํํ ๋ชจ๋ธ๋ก ์ ์ ํ๋ผ๋ฉํฐ ์(7B)์ ๋๊ท๋ชจ ์ด๋์๋ ์ ๊ทผ ๊ฐ๋ฅํ ๋ฐ์ดํฐ์ (์์กฐ ๊ฐ token)๋ง์ ์ฌ์ฉํ์ฌ SOTA๋ฅผ ๋ฌ์ฑํ ๋ชจ๋ธ์ด๋ค. ์ฌ์ ์ง์์ด ๋ถ์กฑํ๊ธฐ ๋๋ฌธ์, Introduction ๋งํผ์ ํ ์ค ํ ์ค ์์ธํ ์ดํด๋ณด๊ณ , ์ธ์ฉ๋ ์ค์ํ ๋ ผ๋ฌธ์ ๋๊ฐ ํ์ด ์ ๋ฆฌํด๋ณธ๋ค. Introduction Large Languages Mo..
๋ฐ์ดํฐ๋ฅผ ๋ง๋ค์ด๋ด๊ฑฐ๋, ํ์ต์ ๋๋ฆฌ๋ ๊ฒ ์ฒ๋ผ ๋ฐ๋ณต์ ์ธ ์ฝ๋ ํ๋ฆ์ด ์งํ ๋ ๋, ๋ฌด์์ ๊ธฐ๋ค๋ฆฌ๋ ๊ฒ ๋ณด๋จ ์งํ๋๋ฅผ ์ ์ ์์ผ๋ฉด ์ข๋ค. ํนํ AI๋ฅผ ๊ณต๋ถํ๊ณ ์์๋ ๊ฑฐ์ ํ์์ ์ผ๋ก ์ฌ์ฉ๋๋๋ฐ, ๋จ์ ์งํ๋ฅ ๋ง ๋ณด๋๊ฒ ์๋๋ผ ์ค์๊ฐ loss, smooth loss๋ฅผ ๋ณด๋ฉฐ ํ์ต์ด ์ ๋๊ณ ์๋์ง ์ค์๊ฐ์ผ๋ก ํ์ธํ๋ ์ฝ๋๋ ํฌํจํ๋ค. tqdm ์ด๋?tqdm์ 'taqaddum'์ ์ฝ์์ด๋ฉฐ ์๋์ด๋ผ๊ณ ํ๋ค. '์งํ'์ด๋ผ๋ ์๋ฏธ๋ฅผ ๊ฐ์ง๋ฉฐ ํ๋ก๊ทธ๋๋จธ์๊ฒ ์ด๋ ํ ํ๋ก์ธ์ค์ ์งํ ์ํฉ์ ์๊ฐ์ ์ผ๋ก ๋ณด์ฌ์ฃผ๋ ๋ผ์ด๋ธ๋ฌ๋ฆฌ์ด๋ค. tqdm ๊ธฐ๋ณธ์ ์ธ ์ฌ์ฉ๋ฐฉ๋ฒ1. tqdm์ค์นpip install tqdm # ๋ ธํธ๋ถ ์์์ ์ค์นํ๋ ค๋ฉด ์์ !๋ฅผ ๋ถ์ฌ์ผํจ 2. tqdm ๋ถ๋ฌ์ค๊ธฐ & ์ฌ์ฉ๋ฐฉ๋ฒfrom tqdm import tqdmfor i..
๊ตฌ๊ธ ์ฝ๋ฉ์ ๋ฌด๋ฃ๋ฒ์ ์ต๋ 12์๊ฐ, Pro๋ฒ์ ์ต๋ 24์๊ฐ (๋ณ๋๋ ์ ์์) ์ฐ๊ฒฐ์ด ์ง์๋๋ฉฐ ์ด๋ 90๋ถ๊ฐ ์ด๋ ํ ์ด๋ฒคํธ๊ฐ ์์ ๊ฒฝ์ฐ ๋ฐํ์์ ์ข ๋ฃ์์ผ๋ฒ๋ฆฐ๋ค.ํ์ต์ด ์ค๋๊ฑธ๋ฆฌ๋ AI ๋ชจ๋ธ์ Google Colab์์ ํ์ต์ํฌ๋, ์ด๋ฒคํธ๋ฅผ ์ง์์ ์ผ๋ก ๋ ๋ ค์ค์ผํ๋๋ฐ ๋งค๋ฒ ๊ทธ๋ด ์๋ ์๋ค.์ด๋ฏธ ๋ฐํ์ ๋๊น ์๋ฐฉ ๋ฐฉ๋ฒ์ ๋ง์ง๋ง, ๊ตฌ๊ธ์ฝ๋ฉ์ ์ง์์ ์ธ ์ ๋ฐ์ดํธ๋ก ๋๋ฆฌ ํผ์ ธ์๋ ๊ฒ๋ค์ด ๋ฌด์ฉ์ง๋ฌผ์ด ๋๋ฒ๋ ธ๋ค.์คํ์ค๋ฒํ๋ก์ฐ์ ์ด๋ ํ ์ ์ ๊ฐ ์ต์ ์ฝ๋๋ฅผ ๊ณต์ ํ๋ค. How can I prevent Google Colab from disconnecting?Is there a way to programmatically prevent Google Colab from disconnecting on a timeout? The fo..