- 2025. 7. 9.
카테고리
📺
TV트랜스크립트
00:00다음 영상에서 만나요.
00:30다음 영상에서 만나요.
01:00검색, 요약, 번역 이 세 가지는 여러분들이 정말 많이 생성형 AI를 사용하시면서 하는 과제들일 텐데 원하는 결과를 잘 얻기 위해서 어떻게 프롬프트를 작성해야 되는지 한번 살펴보겠습니다.
01:14검색, 요약, 번역 이 세 가지는 astronaut 하나 of the table
01:22우선 검색부터 살펴볼게요.
01:25검색은요. 생성형 AI 플랫폼들의 검색 엔진이 다 달려 있어요.
01:29예를 들어 이번 주 주식 혹은 테슬라 주식 동향으로 치시면 자동으로 검색 엔진에 의해서 결과를 내어주고 있는 방식이거든요.
01:42그런데 그런 식으로 검색 엔진의 결과를 이용하시면서 보셔도 좋지만 프롬프트를 조금만 추가하고 가공을 해서 쓰다 보면 더 나은 검색 결과를 얻으실 수가 있습니다.
01:54어떤 보고서 작성이나 논문 작성이나 좀 고도화된 어떤 테스크를 위한 검색을 말씀드리려고 해요.
02:04프롬프트의 멀티 혹 퀄셔닝 방식을 이용하시면 좋은데요. 한 논문이 있었어요.
02:15어떻게 하면 AI의 한계에 어떤 복잡한 어떤 고도화된 검색을 이끌어낼까?
02:23연구한 논문인데요. 멀티 혹 방식에 의해서 더 나은 성능을 보이는 답변을 연구한 논문입니다.
02:31그래서 한국어로 한다고 하면 자문자답인 거죠.
02:35그래서 어떤 한 주제에 있어서 관련된 어떤 파생되는 키워드들을 스스로 찾고
02:42그 스스로 질문을 해서 스스로 답변을 하면서 계속 답변하고 생각하고 질문하고 반복되는 그런 방식이라고 생각하실 수 있어요.
02:51유도형이라고 하면 모델한테 생성형 AI한테 어떤 트레이커를 한다는 뜻이에요.
02:59우리가 6회차에 체인 오브 덫 방식을 살펴봤는데
03:03이 방식보다 오히려 검색에서는 조금 더 나은 성능을 보여주고 있다는 결론을 내린 논문입니다.
03:11조금 더 현실적으로 설명을 와닿게 말씀드리면
03:15언어학의 시맨틱 네트워크라는 개념이 있어요.
03:18그 문장 내에서 쓰인 한 단어가 다른 하위의 단어랑 어떻게 연결이 되어 있는지에 대한
03:25이런 네트워크 망을 보여주는 그런 상황인데요.
03:28지금 소개해드린 멀티옥 퀘셔닝 방식이 바로 이와 굉장히 유사합니다.
03:34검색어가 있고 그 검색어를 중심으로 촘촘히 엮이는 어떤 하위 개념을
03:39셀프에스킹하면서 촘촘하게 그 격차를 줄여가는 유도 방식이라고 할 수가 있어요.
03:46그래서 조금 더 정교한 답변을 받으려면 여러분들께서는 다음 방식을 이용하시면 돼요.
03:52리컬시브 서치라고 이제 말을 하면 되는데
03:56리컬시브 서치란 재기적 서치예요.
04:00그래서 이게 어떤 뜻이냐면
04:01자기가 생성한 답을 여러 차례 보면서 답변에 고도화를 하는 과정을 의미합니다.
04:08프롬프트에 적어도 너가 답변을 말해주기 전에 4번의 재기적 검색을 해줘 라고만 하셔도
04:17그냥 일반 검색을 하셨을 때랑은 결과가 차이가 있을 수밖에 없죠.
04:22예시를 한번 보겠습니다.
04:24시연을 할 건데 주제는
04:25인공지능은 인간의 일자리를 대체할까? 라는 질문으로 한번 검색을 해볼 거예요.
04:31이 주제 자체가 굉장히 일반적이잖아요.
04:33그래서 아마 이 질문을 넣고 결과를 얻으면
04:36두루뭉술한 그런 AI의 답변이 나올 텐데
04:39이것들을 멀티오 퀘셔닝 방식을 썼을 때
04:43재기적 검색 방식을 썼을 때
04:45어떻게 달라지는지를 한번 살펴보겠습니다.
04:48인공지능은 인간의 일자리를 대체할까를 주제로
04:55검색 소스를 3개만 찾고 주제를 찾아주세요.
05:04지금 답변을 하는 과정에서 어떤 소스들을 찾았는지를 다 보여주고 있어요.
05:20언론사에서 어떤 기관에서 이런 주로 뉴스를 많이 다루고 있네요.
05:26뉴스를 많이 다뤄서 답변을 하는 걸 볼 수가 있고
05:30여기에서 대체할 것이라는 거에는 이견이 없다라고 하면서
05:34한 줄 정리를 하고 있고
05:35하위 메시지가 나오고 있죠.
05:41전문직 일자리까지 대체 가능성이 있고
05:43소멸과 창출이 동시에 일어나는 노동시장 변화를 유발한다
05:48라고 하면서 세 가지 포인트를 말해주면서
05:51포속 질문으로 사용자가 어떤 질문을 더할 수 있는지까지도
05:55연관 검색어가 나오고 있는 상황이죠.
05:58그랬을 때 이 답변을 조금만 고도화해 볼게요.
06:01답변의 결과를 비교해 보기 위해서
06:03검색 소스를 찾아주세요.
06:06방법을 그냥 아까 전에
06:08멀티홈
06:09퀘셔닝
06:1110개
06:1310개 하고
06:15그 다음에 답변 형식은
06:17검색 결과의
06:20포인트
06:22그 다음에 보충 문장
06:24이라고 해볼게요.
06:25그랬을 때 어떠한 검색 소스를 찾는지를 한번 저희가 살펴보겠습니다.
06:30아까랑 좀 찾는 방식이 좀 다르죠.
06:35여기 보시면
06:35제가 프롬프트에 쓴 거를
06:38스텝 바이 스텝하게 지금 찾고 있는 과정을 보여주고 있고요.
06:43우선 소스를 아까보다 더 많이 찾고 있어요.
06:45아까 전에 10개 찾았었잖아요.
06:47근데 지금은 55개를 찾았대요.
06:5055개 찾은 소스의 그런 종류를 한번 보시겠습니다.
06:54뉴스도 있고
06:55정부문서도 있고
06:57그 다음에
06:58자코리아도 있고
07:01칼럼도 있고
07:02다양한 소스들이 나오면서
07:04소스가 더 풍부해졌기 때문에
07:06답변이 조금 더 고도화가 될 수밖에 없겠죠.
07:09그리고 제가 프롬프트에
07:11이 뉴스 결과를 그냥 나열하지 말고
07:13검색 결과의 포인트와 보충 문장을 써달라고 했죠.
07:17한 가지 주제를
07:18시멘틱 네트워크처럼
07:19여러 가지를 고루 살펴보게 하면서
07:22이거에 대해 필요한 소스를 찾아와가지고
07:25저희한테 검색 결과를 보여줬기 때문에
07:27이런 식으로 검색을 하면
07:29당연히 검색 결과가 좋아질 수밖에 없습니다.
07:33이어서 제가 쓰는
07:34그 검색 프롬프트에 대해서
07:36또 한번 소개를 드리면요.
07:37우선 저는 검색 결과를 사용할 때
07:40가장 중요한 게
07:41그 결과에 대한 팩트라고 생각을 합니다.
07:45누군가의 블로그 글이나
07:46누군가의 커뮤니티 글은
07:48잘못된 정보
07:49혹은 주관적인 정보가 담겨 있어서
07:52쓸 때 너무 부적절할 때가 많아요.
07:54그래서 저는
07:55검색 퀄이를 만들어서 씁니다.
07:57검색 퀄이라고 하면
07:59검색을 할 때
08:00늘 문법처럼 쓴다라는 얘기예요.
08:03그래서 검색할 주제에 넣고
08:05그 다음에
08:06굉장히 신뢰할 만한 소스
08:07국가를 지정을 합니다.
08:10그래서 한국에서 가져올 것인지
08:11미국에서 가져올 것인지
08:13일본에서 가져올 것인지를
08:14따로 넣어주고요.
08:16그 다음 마지막이 굉장히 중요한데
08:18오피셜하고
08:19가르바만 페이퍼
08:20정부기관이나 공공기관의 자료를
08:23많이 이용을 하라고 하는 편이에요.
08:25이렇게 쿼리문을 작성을 하고요.
08:28그 다음에 또 하나 하는 거는
08:30주제에 따라서 자동으로
08:32실시간 검색을 불러와서
08:34서치 결과를 보여주는데
08:35때로는 그냥
08:37이 자동 검색이 아닌
08:39결과에서 더 좋은 답변을 줄 때가 있어요.
08:42웹서치를 오히려 끄는 게 좋아서
08:44Do not conduct
08:45웹서치를 하지 말아주세요.
08:47라는 명령문을 사용을 합니다.
08:50그리고
08:50그 다음 박스에서
08:52세 가지를 조금 더
08:53프롬프팅 방식을
08:54소개해 드릴 텐데요.
08:55개인의 블로그는
08:56가져오지 말아주세요.
08:58그리고
08:58가장 최신의 정보에
08:59집중해 주세요.
09:01그리고 관련 정보
09:02렐러반 인포메이션이
09:04굉장히 중요하거든요.
09:06생성형 AI다 보니까
09:07이 문장을 쓰고 안 쓰고의
09:10차이가 또 심하다고 할 수 있습니다.
09:12번역도 아마
09:21여러분들이 많이 하시는
09:23그런 과제 중에 하나일 거예요.
09:26언어모델들이 주로 학습한 데이터가
09:28영어를 많이 학습을 했겠죠.
09:30영어가 자원이 풍부하다 그래서
09:32High Resource Language라 그러고
09:34한국어 같은 경우는
09:36학습을 많이 안 했을 그런 랭구지
09:38Low Resource Language예요.
09:40AI가 학습을 많이 했을 것 같은
09:42언어를 번역을 잘 할 거고
09:44한국어는 Low Resource Language이기 때문에
09:47저자원 언어이기 때문에
09:49영어에서 한국어로 바꿀 때
09:51혹은 한국어에서 영어로 바꿀 때
09:53그냥 번역해 줘라고 하면
09:55좋지 않은 결과를 받을 수밖에 없습니다.
09:58그랬을 때 할 수 있는 방식 몇 가지를
10:00이 시간에 소개를 드릴 예정이에요.
10:02우선 첫 번째로는
10:04Few Shared in Context Learning 이라는 컨셉에서요.
10:07실험을 해보니까
10:08뭔가 그냥 번역해줘가 아니라
10:11번역을 해서 나와야 되는 결과물과
10:14굉장히 유사한 것들을
10:16예시로 넣어주는 방식이에요.
10:18만약에 여러분들이 꼭 나와야 되는 문장의 결과
10:21어떤 문장의 그 라임이 있다고 한다고 하면
10:25그 문장을 예시로 들어서
10:27이 세그먼트와 유사한
10:30톤앤매너와 단어를 사용해서
10:33번역해 주세요.
10:34라고 하는 그런 방식입니다.
10:35그랬을 때 중요한 건
10:36목표하고자 하는 그 문장과
10:39유사한 컨텍스트를 주셔라.
10:41라는 것입니다.
10:42도메인 정보 굉장히 중요합니다.
10:45예를 들어 금융권의 어떤 기술 문서를
10:47분석을 한다고 했을 때
10:49역할 프롬프팅 넣을 수가 있지만
10:51이 도메인에서 쓰는 전공 영어가
10:54또 따로 있잖아요.
10:56그랬을 때
10:56너는 전문 누구누구야
11:00라고 하면서
11:01이제부터 이거를 번역할 건데
11:02도메인은 요거야
11:04라고 지시해 주는 방식이
11:06도메인 지정이거든요.
11:07그래서 도메인을 지정해 주는 방식이
11:10번역 결과를 당연히 높일 수밖에 없습니다.
11:13진짜 실험을 제가 해봤어요.
11:15얼마 전에 있었던
11:16트럼프의 취임사 번역문인데요.
11:20지금 포커스는 도메인을
11:21퍼치매치즈한 방식으로
11:24프롬프트를 썼을 때
11:25얼마나 달라지는지를 보기 위함이어서
11:27보시면 하나는 굉장히 번역체 같고
11:31다른 하나는 그나마 읽을 만하다
11:32라고 느끼실 거예요.
11:34이전의 그 번역문에서는
11:36그냥 AI가 1대1로 번역을 해서
11:39있는 단어의 순서를
11:41지격을 한 그런 느낌이 나고요.
11:43후자의 번역물의 결과에서는
11:46문맥을 이해를 하는
11:49그런 표현을 좀 쓰고 있습니다.
11:53그래서 그냥 이렇게 간단하게만 쓰더라도
11:56결과가 바뀌는 걸 볼 수가 있거든요.
11:58실제로 해보시면
11:59번역에 있어서
12:00예시가 미치는
12:01결과물에 미치는 영향이 높다고 할 수 있습니다.
12:04우선 생성형 AI로 요약을 하면서
12:15어떤 분들은 굉장히 만족하시고
12:17또 어떤 분들은
12:18요약을 하는데
12:20중요한 요소가 다 빠져가지고
12:21이거는 뭐 하나하나예요
12:23라는 어떤 결과에 있어서
12:24아쉬움을 느끼시는 분들이 있을 거예요.
12:26아쉬움을 느끼는 분들은
12:29요 지금 해당 강의를 보시면
12:32굉장히 유용할 거라 생각합니다.
12:35생성형 AI의 한계 때문에
12:37요약에 있어서도
12:38극복해야 될 포인트가 존재합니다.
12:40세 가지로 보통 요약이
12:42안 된다라고 말을 할 수가 있는데요.
12:45첫 번째는
12:46세부사항을 누락시키는 거예요.
12:48세부사항이라고 한다고 하면
12:50언어모델은 시간 개념이 없어요.
12:53그래서 어제도 같고
12:54오늘도 같고
12:55미래가 뭔지도 모릅니다.
12:56그렇기 때문에
12:57이 숫자 관련해서는
12:59굉장히 누락이 되고 있는 상황이고요.
13:02맥락을 이해하지 못해요.
13:03문장 간 문장 간의 관계는 보지만
13:05전체적인 어떤 걸 보지 못해서
13:07놓치는 거
13:08그리고 추측하는 과정에서
13:11잘못된 정보를 생성합니다.
13:13이 세 가지가 요약할 때의 한계인데요.
13:16그것들을 방지하기 위해서
13:17가장 효용적인 방식은
13:19저도 많이 쓰고 있는
13:21이 Element Aware Summary라는 방식입니다.
13:24우리가 뭔가 책을 읽을 때나
13:27중요한 어떤 기사나
13:29논문을 접할 때요.
13:31중요한 걸 일단 키워드로 동그라미를 치고
13:34그 동그라미를 뽑아다가
13:35전체적으로 스토리텔링을 하면서
13:38이해를 하려고 하잖아요.
13:39사람도
13:40그런 방식을 이용한
13:41프롬프팅 기법이에요.
13:43그래서 AI한테
13:45우선 읽고
13:46이 문장을 읽어주시고
13:48중요한 요소를 추출해 주세요.
13:50라고 1단계에서 말을 합니다.
13:51그리고 2단계에서
13:53그 중요한 요소들을 연결하여
13:56요약을 다시 한번 세밀하게 해주세요.
13:58하는 그런 방식이에요.
14:01그리고 또 다른 방식으로 소개해드릴 게
14:03바로 Chain of Dancy
14:04프롬프팅이라는 방식이 있어요.
14:07말 그대로
14:07밀도를 높이는
14:09그런 방식이라고 할 수가 있어요.
14:11중요한 Entity
14:12엔티티라고 하면
14:14명사가 되겠죠.
14:15그 문장에서
14:16핵심으로 뽑힐 수 있는
14:18그런 명사 정보를 추출을 하면
14:20더 밀도 있는 요약을
14:22할 수 있습니다.
14:231번과 2번 스텝을 거치는 거예요.
14:26두 단계를 한 번만 하지 않고
14:27최소 5번 다시 읽어주세요.
14:31혹은 10번 다시 읽어주세요.
14:33반복시키면서
14:34정밀도를 높여가는
14:36그런 방식이라고 할 수 있는데요.
14:38저는 연구 논문을 많이 요약을 하는데
14:40그럴 때 그냥
14:42연구 논문을
14:44최치피티한테 넣고
14:45논문 요약해줘라고 하면
14:48그냥 정말 변한 결과가 나오잖아요.
14:51그랬을 때
14:51모델의 그 추론을
14:52트리거할 수 있는 문장들
14:54처리 순서를
14:55단계적으로 생각해주세요.
14:57라고 말을 하면서
14:58결과를 정리해달라고 합니다.
15:01정리한 결과 한번 생성한 다음에
15:02그 다음에 아래 템플릿대로
15:04다시 생성하게 하는
15:06그랬을 때
15:06자기가 생성 한번 하게 한 거를
15:09다시 생성하게 했을 때
15:11왜 사람도
15:12어떠한 정보를 받았을 때
15:14리프레이즈 하게 하면
15:16그 정보의 밀도가 더 높아지는 것처럼
15:19똑같은 원리거든요.
15:21앞에서 한번 요약하고
15:22그 요약한 결과를
15:24다시 한번 가공해서
15:26이 구조대로 맞춰줘 라고
15:28수렴하게 하는 그런 행위입니다.
15:31요약의 결과를 한번 비교해 보겠습니다.
15:34어떤 테크니컬한 논문을 넣고요.
15:37제가 그냥 일반 요약해줘가
15:39왼쪽 결과고요.
15:40오른쪽은 좀 누머릭하고
15:43뭐 인포메이션 추출하고
15:44다시 생성하게 한 결과인데요.
15:47딱 육안으로 봤을 때도
15:48오른쪽이 훨씬 세밀하고
15:50밀도 있는 요약 결과가 나오고 있죠.
15:52그래서 이런 식으로 한번 써보시면
15:54여러분들의 요약도
15:56결과가 좋아질 거라고 생각합니다.
15:58그래서 이 회차에서는
15:59검색 번역 요약을
16:02잘할 수 있는 프롬프트 기법에 대해서
16:04살펴봤습니다.
16:10감사합니다.
16:12감사합니다.
16:13감사합니다.
추천
16:22
|
다음 순서
23:50
16:58
16:27
17:23
16:52
16:56
16:37
16:57
18:00
17:17
18:03
18:04
17:29
17:51
20:25
20:55
20:34
16:29
1:03:58
20:35
1:14:58
1:26:19