카페검색 본문
테이블글 본문
정확도순
-
소버린AI란? 2024.07.05
사용하기에는 다소 부적합한 결과를 만들수 있으니, 해당 국가의 언어로 대규모 언어모델을 만들어서 서비스하자.. 뭐 그런 AI 모델의 로컬화 전략이네요. 이미 대형 영어권 모델에 의해 점령된 상태에서 경쟁하기 위해서 꺼내들수 있는 전략중 하나인것...
-
연봉 2배 제안했는데 "너무 낮다" 항의…전세계 AI 인재 쟁탈전 2024.03.28
라오의 언급을 인용해 "우리가 구하려는 인재들이 한 쪽에선 넘쳐나고 다른 쪽에는 턱없이 부족한 상황"이라며 "사실 대규모 언어 모델(LLM)을 처음부터 훈련했거나 환각(Hallucination, AI 오작동)과 같은 골치 아픈 문제를 해결할 수 있는 인재는 고작...
-
Google 에서 Gemini 를 전격 공개했습니다. 2023.12.07
공개…"GPT-4·사람 능력 넘어"(종합) (샌프란시스코=연합뉴스) 김태종 특파원 = 지금까지 나온 인공지능(AI) 모델 가운데 사람에 버금가는 가장 높은 성능의 대규모 언어모델(LLM)이 나왔다. 구글은 6일(현지시간) AI의 기반이 되는 LLM ' v.daum.net
-
챗gpt를 Fine-tuning 해서 활용하는것과 Embedding해서 사용하는게 어떻게 다르지? 2023.05.10
방법입니다. 하지만 두 기술은 목적과 사용 방법에서 차이가 있습니다. 챗gpt는 이미 사전 학습된 대규모 언어 모델입니다. 따라서 Fine-tuning은 이 모델의 가중치를 가져와 새로운 텍스트 데이터에 맞게 수정하여 해당 데이터에 대한 예측을 수행하는 것...