llm 22

RAG기반 LLM의 사용자 경험

오늘은 RAG-LLM과 관련된 문헌이 있어 공유하고자 합니다.  Developing Retrieval Augmented Generation (RAG) Based LLM Systems from PDFs: An Experience Reporthttps://arxiv.org/html/2410.15944v1#S4 Developing Retrieval Augmented Generation (RAG) based LLM Systems from PDFs: An Experience ReportBest Practice: Ask the Model to adopt a Persona  Provide specialized context-Rich instructions that guide the assistant on how to..

AI의 의학도전 (20)-데이터의 연금술: AI는 어떻게 고품질 합성데이터를 만들어내는가

LLM 기반 Synthetic Data 연구https://arxiv.org/html/2406.15126v1 On LLMs-Driven Synthetic Data Generation, Curation, and Evaluation: A SurveyOn LLMs-Driven Synthetic Data Generation, Curation, and Evaluation: A Survey Lin Long1, Rui Wang1, Ruixuan Xiao1 Junbo Zhao1, Xiao Ding2, Gang Chen1, Haobo Wang1 1Zhejiang University, China  2Harbin Institute of Technology, China Correspondence: wanghaobarxiv.or..

눈에 띄는 AI 에이전트 시리즈: BabyAGI, PrivateGPT, GPT Researcher

BabyAGI  : 인공지능 기반 작업관리 시스템 GitHub - yoheinakajima/babyagiContribute to yoheinakajima/babyagi development by creating an account on GitHub.github.com A simple framework for managing tasks using AI  BabyAGI는 인공지능을 활용한 작업 관리 시스템입니다. 이 프레임워크는 OpenAI의 언어 모델과 Pinecone의 벡터 데이터베이스를 결합하여 자동으로 작업을 생성, 우선순위 지정, 실행하는 능력을 갖추고 있습니다[1][2].## 주요 특징**자율적 문제 해결**: BabyAGI는 복잡한 목표를 작은 하위 작업으로 분해하여 효율적으로 문제를 해결합니다..

AI의 의학도전 (15) - AI가 스스로 논문을 쓴다고요? LLM이 만드는 새로운 연구 패러다임

Autonomous LLM-driven research from data to human-verifiable research papersLLM 스스로 연구 : 데이터에서 검증 가능한 연구 논문까지https://ai.nejm.org/doi/full/10.1056/AIoa2400555 작성일: 2024.01.03연구 개요본 연구는 AI 기반 연구가 투명성, 추적성, 검증 가능성과 같은 핵심적인 과학적 가치를 준수할 수 있는지 탐구한다. Tal Ifargan, Lukas Hafner 등이 주도한 이 연구는 2024년 4월 30일에 NEJM AI에 발표되었다.핵심 연구 내용data-to-paper 플랫폼 소개연구진은 AI 에이전트들이 완전한 연구 과정을 수행할 수 있도록 안내하는 자동화 플랫폼 'data-to-..

카테고리 없음 2025.01.03

[AI와의 대화 - 1]초대형 언어 모델의 긴 문맥 처리 능력: Claude 3.5 Sonnet의 200K 토큰 처리 메커니즘 분석

안녕하세요,  이번 시리즈의 글들은 LLM의 동작들에 대해 궁금한 점들을 LLM들과 문답으로 풀어가는 과정을 기록하고자 합니다. 비록 완전히 정확하지는 않겠지만 일반인들이 이해하는 수준에서는 도움이 되지 않을까 생각합니다. 되도록 hallucination이 발생하지 않도록 주의를 기울여 작성해보겠습니다.  transformer가 무엇인지 궁금해서 알아보던 과정에 아래와 같은 궁금한 점이 생겼습니다. 최신 초대형 언어 모델인 Claude 3.5 Sonnet은 어떻게 200,000 토큰이라는 방대한 컨텍스트 윈도우를 효율적으로 처리할 수 있을까? 특히 기존 Transformer 아키텍처의 제한사항을 어떻게 극복하였나? 또한 추가적으로 이어서 생기는 저의 궁금함들은 다음과 같습니다.  계산 효율성"200K ×..

AI의 의학도전 (14): ChatGPT는 어떻게 문장을 이해하는가? - Attention 메커니즘의 비밀

Attention 알고리즘을 단계별로 쉽게 개념적으로 알아보겠습니다:기본 개념Attention은 입력 시퀀스의 각 요소들 간의 관련성을 계산하는 메커니즘입니다"모든 입력을 고려하되, 중요한 것에 더 주목한다"는 개념입니다주요 구성 요소Query (Q): 현재 처리 중인 위치의 벡터Key (K): 다른 위치들의 벡터Value (V): 실제 정보를 담고 있는 벡터작동 과정 a. 각 입력 단어를 벡터로 변환 b. Query와 Key 사이의 유사도 점수 계산 c. Softmax 함수로 점수를 확률로 변환 d. 확률을 Value에 곱하여 가중치 적용 e. 가중치가 적용된 Value들을 합산수식으로 표현 Attention(Q, K, V) = softmax(QK^T/√d_k)Vd_k: 스케일링 팩터(Key의 차원)√..

AI의 의학도전 (12) - 대규모 언어 모델의 이점과 한계: 혈액학 분야에서의 활용

1차 원고 작성: 2024.11.22참고문헌: https://onlinelibrary.wiley.com/doi/10.1111/bjh.19738 Exploring the role of Large Language Models in haematology: A focused review of applications, benefits and limitations. 대규모 언어 모델(LLMs)의 이점과 한계: 혈액학 분야에서의 활용일관성대규모 언어 모델의 일관성에 대한 평가는 연구마다 상이합니다.Kurstjens et al.은 ChatGPT가 동일한 답변을 80%의 확률로 선택해 일관성이 부족한 모델로 평가되었으나, GPT-4는 98.3%의 확률로 동일한 답변을 선택해 매우 일관성이 높은 모델로 평가되었습니다(27..

의학 2024.11.22

AI의 의학 도전 (9) NEJM case 평가를 통한 다중 모달 AI의 의료 진단

1차 원고 작성: 2024-10-25 오늘은 "Evaluating multimodal AI in medical diagnostics"라는 논문에 대해 내용을 정리하고자 합니다. 이 연구는 다중 모달 AI 모델이 임상 진단에서 보이는 정확도와 반응성을 평가한 중요한 논문입니다. 출처: npj Digital Medicine (2024) 7: 205. https://doi.org/10.1038/s41591-024-02780-7 이 연구에서는 NEJM Image Challenge 질문에 대한 AI 모델의 응답을 인간 집단 지성과 비교하여 AI의 잠재력과 현재의 한계를 조명했습니다.  이 연구의 주요 내용은 다음과 같습니다:Anthropic의 Claude 3 모델이 가장 높은 정확도를 기록했으며, 이는 AI 모델..

카테고리 없음 2024.10.25

AI의 의학 도전 (8) : PathChat, 병리학의 새로운 동반자 - 다중모달 AI가 여는 정확한 진단의 미래

1차 원고 작성: 2024-10-24 오늘은 "A multimodal generative AI copilot for human pathology"라는 논문에 대해 내용을 정리하고자 합니다. 이 연구는 병리학 분야를 위한 다중모달 AI 어시스턴트인 PathChat의 개발과 성능을 다룬 혁신적인 논문입니다.  출처: Nature (2024) 634: 466-473 https://doi.org/10.1038/s41586-024-07618-3 컴퓨터 병리학 분야는 특정 작업을 위한 예측 모델과 자기지도 학습 비전 인코더의 개발에서 상당한 진전을 이루었습니다. 하지만 생성형 AI의 폭발적인 성장에도 불구하고, 병리학에 특화된 범용 다중모달 AI 어시스턴트의 개발은 제한적이었습니다. 이 연구에서는 병리학을 위한 비..

카테고리 없음 2024.10.24

일반 언어 모델의 한계 극복: 미세 조정과 사례 연구 (BioBERT, SciBERT, PubMedBERT)

대형 언어 모델(LLM)은 자연어 처리 분야에서 중요한 혁신을 이루었지만, 여전히 특정 도메인에서는 한계를 보이고 있습니다. 특히, 도메인별로 요구되는 세부적인 지식이나 전문성을 반영하지 못해 정확하지 않은 출력을 생성하거나, 신뢰성에 문제가 발생하는 경우가 있습니다. 이러한 한계를 극복하기 위한 한 가지 방법으로 도메인 특화 LLM을 개발하는 것이 주목받고 있습니다.일반 LLM: 한계를 해결하는 접근법LLM의 한계를 해결하는 한 가지 방법은 특정 도메인에 맞는 데이터로 모델을 **미세 조정(finetuning)**하는 것입니다. 미세 조정은 대형 언어 모델이 학습한 범용적인 지식 위에, 특정 분야에서 자주 등장하는 용어나 표현, 문맥 등을 이해할 수 있도록 추가 학습하는 과정을 말합니다. 이를 통해 관..

카테고리 없음 2024.10.21