반응형
SMALL

다국어 llm 3

[논문리뷰] Trillion 7B Technical Report

🔗 https://arxiv.org/pdf/2504.15431.pdfTrillion 7B 기술 리포트: 효율적인 한국어 AI 모델의 등장최신 대규모 AI 모델들은 대부분 영어 데이터 중심으로 학습되어, 한국어처럼 데이터가 적은 언어에서는 성능 차이가 컸습니다.이 논문은 'Trillion-7B'라는 새로운 모델을 소개하며, 방대한 양의 한국어 데이터 없이도 높은 효율과 경쟁력 있는 성능을 달성하는 방법을 제시합니다.특히 'XLDA'라는 독특한 기술과 데이터 전략을 통해 비용 효율적으로 다국어 AI 모델을 만드는 새로운 가능성을 열었습니다.서론핵심 포인트: 다국어 AI의 데이터 불균형 문제 해결 시도최근 AI 모델이 많이 발전했지만, 영어와 한국어 등 언어 간 성능 차이가 커요.이는 한국어 데이터가 영어 ..

AI논문 2025.04.25

[논문리뷰] Analyzing LLMs’ Knowledge Boundary Cognition Across Languages Through the Lens of Internal Representations

🔗 https://arxiv.org/pdf/2504.13816.pdfLLMs, 다국어에서도 지식의 한계를 인지할까? - LLM의 다국어 지식 경계 인지 능력 분석거대 언어 모델(LLM)은 다양한 언어를 이해하고 지식을 활용하는 능력이 뛰어나지만, 자신이 모르는 내용에 대해 Hallucination(환각, 허구의 답변)을 보이는 문제가 있습니다.LLM이 자신의 지식 경계를 인지하고 Hallucination을 줄이는 것은 매우 중요하며, 안전하고 신뢰할 수 있는 LLM을 만들기 위한 핵심 과제입니다.하지만, 기존 연구는 주로 영어에 집중되어 있었고, 다국어 환경에서 LLM의 지식 경계 인지 능력에 대한 연구는 부족했습니다.이 논문은 다국어 LLM의 지식 경계 인지 능력을 분석하고, 다양한 언어에서 지식 경..

AI논문 2025.04.22

[논문리뷰] Could Thinking Multilingually Empower LLM Reasoning?

🔗 https://arxiv.org/pdf/2504.11833.pdf다국어 사고, LLM 추론 능력의 잠재력을 깨울까? 거대 언어 모델(LLM)은 다양한 언어를 학습했지만, 영어 데이터가 많아서인지 영어로 질문했을 때 성능이 더 좋은 경향이 있습니다. (영어 편향)하지만, 최근 연구에서 몇몇 LLM은 특정 추론 문제에서 영어보다 다른 언어로 질문했을 때 오히려 더 뛰어난 성능을 보이기도 했습니다.이 논문은 다국어 사고를 활용했을 때 LLM이 얼마나 더 똑똑해질 수 있는지, 그 최대 가능성을 탐구합니다.단순히 영어를 잘하는 것을 넘어, 여러 언어를 '함께' 생각하는 것이 LLM의 잠재력을 극대화할 수 있다는 흥미로운 가능성을 제시합니다.서론거대 언어 모델(LLM)은 많은 언어 데이터로 학습되었지만, 영어..

AI논문 2025.04.21
반응형
LIST