목록LLM (7)
Dende
이전 포스팅에서는 MCP서버와 관련된 이야기를 다뤄봤는데요. MCP가 'AI와 외부 세계(도구)의 대화법'을 표준화했다면, A2A는 'AI와 AI 동료들의 대화법'을 다루는 영역이라고 설명할 수 있겠습니다. 💡 A2A 프로토콜의 발생 배경 및 개념 MCP로 "에이전트"와 "도구" 사이의 연결은 표준화가 되었지만, "에이전트"와 "에이전트" 사이의 연결 표준화가 이슈가 되기 시작했습니다. 곧, 에이전트 간 통신을 표준화하고자 하는 움직임이 활발해졌고, Google이 개발한 A2A는 그런 수요를 충족시켜주는 프로토콜이었습니다. A2A는 아래와 같은 아주 일반적인 표준을 따르며 에이전트 간 통신을 지원하고 있습니다.HTTP: 기본적인 통신 프로토콜JSON-RPC 2.0: 데이터 교환 형식SSE(Serve..
안녕하세요! 오늘은 Model Context Protocol(MCP) 서버를 직접 구축하며 경험한 AI와 외부 도구 연결의 혁신적인 접근법을 공유해드리려고 합니다.기존의 AI 시스템들이 각각 다른 방식으로 외부 도구와 연결되어 개발자들이 매번 새로운 인터페이스를 학습해야 했다면, MCP는 이 모든 것을 표준화된 하나의 프로토콜로 해결해줍니다. 💡 MCP는 뭐고, 누가 만들었나요?MCP는 LLM 앱 ↔ 외부 데이터/도구를 표준 방식으로 연결하는 오픈 프로토콜입니다. 사양은 공식 스펙 사이트와 SDK로 공개되어 있어요.Anthropic이 2024년 11월에 오픈소스로 공개했고(“Introducing MCP”), 이후 빠르게 채택이 늘고 있습니다. 언론/업계에선 MCP를 “AI 앱의 USB-C”에 비유합니다..
이전 시리즈입니다~[LLM] Fine Tuning 예제 - (1) 학습 데이터 준비 [LLM] Fine Tuning 예제 - (1) 학습 데이터 준비위의 파인튜닝 파이프라인에 따라 코드 실습을 진행해보겠습니다.Topic은 금융상품 추천사유 생성입니다. 대형 언어 모델(LLM)을 통해 고객 개개인의 상황과 니즈를 고려한 맞춤형 추천 사유를 제lanad.tistory.com [LLM] Fine Tuning 예제 - (2) AI 모형 학습 [LLM] Fine Tuning 예제 - (2) AI 모형 학습위의 파인튜닝 파이프라인에 따라 코드 실습을 진행해보겠습니다.Topic은 금융상품 추천사유 생성입니다. 대형 언어 모델(LLM)을 통해 고객 개개인의 상황과 니즈를 고려한 맞춤형 추천 사유를 제lanad.tis..
위의 파인튜닝 파이프라인에 따라 코드 실습을 진행해보겠습니다.Topic은 금융상품 추천사유 생성입니다. 대형 언어 모델(LLM)을 통해 고객 개개인의 상황과 니즈를 고려한 맞춤형 추천 사유를 제공하는 것을 목표로 해보겠습니다.Supervised Fine Tuning?Supervised Fine Tuning(이하 SFT)은 레이블이 지정된 데이터를 사용하여 사전 훈련된(기본) 대규모 언어 모델(LLM)을 특정 다운스트림 작업에 적응시키는 데 사용되는 기술입니다. 2024년에 사용되는 대부분의 LLM은 채팅 또는 지시 기반 상호 작용을 위해 미세 조정됩니다. 데이터 수집 및 준비: 모델을 학습시키기 위해 데이터가 수집됩니다. 여기에는 두 가지 유형의 데이터가 사용됩니다: **원시 텍스트(Raw text)*..