플레이어로 건너뛰기
본문으로 건너뛰기
푸터로 건너뛰기
검색
로그인
추천
16:06
|
다음 순서
한국기행.E5433.250707
ontvkorea
오늘
16:58
클래스 e 1.250703
ontvkorea
5일 전
16:27
클래스 e 1.250701
ontvkorea
2025. 7. 1.
16:56
클래스 e 1.250624
ontvkorea
2025. 6. 24.
18:00
클래스 e 1.250626
ontvkorea
2025. 6. 26.
16:57
클래스 e 1.250604
ontvkorea
2025. 6. 4.
16:37
클래스 e 1.250609
ontvkorea
2025. 6. 9.
17:17
클래스 e 1.250625
ontvkorea
2025. 6. 25.
18:03
클래스 e 3.250603
ontvkorea
2025. 6. 3.
18:04
클래스 e 3.250609
ontvkorea
2025. 6. 9.
17:29
클래스 e 2.250604.720p-NEXT
ontvkorea
2025. 6. 4.
20:34
모닝와이드 1부.250701
ontvkorea
2025. 7. 1.
1:14:58
공부와 놀부.E10.250602
ontvkorea
2025. 6. 2.
20:33
모닝와이드 1부.250703
ontvkorea
5일 전
19:17
모닝와이드 1부.250624
ontvkorea
2025. 6. 24.
20:56
모닝와이드 1부.250705
ontvkorea
그저께
17:51
클래스 e 1.250707
ontvkorea
어제
20:56
모닝와이드 1부.250626
ontvkorea
2025. 6. 26.
1:04:32
모닝와이드 2부.250701
ontvkorea
2025. 7. 1.
1:03:27
모닝와이드 2부.250702
ontvkorea
6일 전
20:02
모닝와이드 1부.250704
ontvkorea
4일 전
1:26:19
Doraemon Movie - Nobita's Sky Utopia 2023
Zabeyaar Khan
5일 전
59:24
KBS 뉴스 9.250707
ontvkorea
오늘
1:01:33
무엇이든 물어보살.E323.250707
ontvkorea
오늘
1:07:31
ON YOUR ARTIST.E02.250707
ontvkorea
오늘
전체 화면으로 보기
좋아요
댓글
북마크
공유
재생 목록에 추가
신고
클래스 e 1.250702
ontvkorea
팔로우
6일 전
카테고리
📺
TV
트랜스크립트
동영상 트랜스크립트 전체 보기
00:00
다음 영상에서 만나요.
00:30
다음 영상에서 만나요.
01:00
3회에서는 생성형 AI와 상호작용하는 방법에 대해서 살펴보겠습니다.
01:06
2회차에서는 저희가 인간하고 인간이 어떻게 대화하는지, AI와 인간이 어떻게 대화하는지에 대한 분석 요소를 살펴봤다면,
01:15
3회차에서는 조금 더 광해의 개념인 상호작용 인터랙션이에요.
01:21
그래서 이 상호작용을 알면 생성형 AI를 더 잘 쓸 수 있습니다.
01:26
상호작용 언어학을 전공을 했어요.
01:30
상호작용 언어학이라고 하면 한국어로 번역하니까 좀 어색하긴 한데,
01:35
Interactional Linguistics라고 합니다.
01:38
이 학문은요, 언어 구조가 사회적 상호작용 속에서 어떻게 형성되고 사용되는지 연구하는 학문인데요.
01:46
언어가 상호작용에 의해 형성될 뿐 아니라 언어 자체가 상호작용의 어떤 자원임을 밝히는 학문이에요.
01:55
그래서 쉽게 말해서 대화가 어떠한 상호작용을 발발시키고 어떤 의미를 갖고 있는지,
02:02
그 기능적인 것을 실증적으로 연구하는 학문이라고 할 수 있는데요.
02:05
이 상호작용 언어학의 이론들을 알면 프롬프트, 그리고 저희가 쓰는 생성형 AI를 조금 더 깊게 이해할 수 있습니다.
02:21
이 이론들을 알면 뭐가 좋냐고 하신다고 하면,
02:26
첫 번째는 대화 내에서 생성형 AI랑 대화를 할 텐데, 이 대화의 텐션을 유지를 할 수가 있어요.
02:33
2회차에서 저희 살펴봤었잖아요.
02:35
불만족인 비선호 구조에서 선호 구조로 바꾸려면 더 정확하고 더 좋은 결과를 얻으려면 수정을 잘하셔야 되는데,
02:44
수정을 어떻게 잘하실 수가 있는지, 인간의 수리 메커니즘, 리페어 메커니즘에서 한번 그 아이디어를 얻어와 볼 거고요.
02:53
세 번째는 공손성 레벨 및 완곡화예요.
02:57
한국어는 특히 존댓말이 존재하잖아요.
03:00
그래서 존댓말을 쓰는 경우에 있어서 공손성 레벨이 이 AI 답변에 어떤 영향을 끼치는지를 살펴보겠습니다.
03:08
네 번째, 네 번째는 담화 표지인데요.
03:11
이 담화라는 표현이 좀 어려울 수가 있어요.
03:14
담화는 아주 쉬워요.
03:16
저희가 AI가 아닌 이상, 말할 때 음, 혹은 그런데, 뭐뭐 내요, 잖아요, 영어로 유노 같은 이런 중간에 추임새들을 넣잖아요.
03:27
이런 것들이 담화 표지인데요.
03:30
이것들을 넣었을 때 딱딱한 AI 답변이 아닌 조금 더 소프트하고 구어체 대화의 어떤 형태로 더 답변을 잘하거든요.
03:39
그래서 프롬프트에 이것들을 넣었을 때의 결과들을 한번 살펴볼 거고,
03:44
다섯 번째, 맥락 중요하다라고 제가 계속 1화 때부터 말씀을 드렸는데,
03:48
그러면 한국어가 고맥락 언어인데, 맥락을 어떻게 프롬프트에 반영을 해서 배경 지식을 넣고 답변을 잘 받을 수 있게 하는지,
04:00
이 네 가지 언어학 이론을 다섯 가지 프롬프트에 반영을 한번 해보는 방법들에 대해서 살펴보겠습니다.
04:07
첫 번째, 순차 조직이에요.
04:10
저희가 2회에서 대화가 턴테이킹 된다는 개념에 대해서 살펴봤어요.
04:15
그래서 대화에 참여하는 사람들은 내가 어느 턴에 끼어들어야 되지? 어느 턴에 말해야 되지? 라는 어떤 말 차례를 기다리게 되는데,
04:25
AI는 메카닉하게 저희가 먼저 말을 걸어야지만 답변을 하는 어떠한 순차가 있다고 말씀을 드렸고,
04:33
그랬을 때 어떤 답변을 받을 수 있는지 예상할 수가 있어요.
04:37
어떤 문장을 넣으면 어떤 답변이 나올지 몰라서 비결정적인 요소를 갖고 있다고 말을 해요.
04:44
이 순차 조직을 잘 이용을 하면 어떤 답변을 받을지 어느 정도 예상을 할 수가 있어요.
04:51
예를 들어 인사를 여러분들이 채찍 PT한테 해보시면 반대로 인사를 하잖아요.
04:56
그리고 어떤 걸 리퀘스트를 요청을 하면 만약에 답변을 할 수 있으면 수락을 하고,
05:02
어떤 답변을 못한다고 하면 거절을 하는 어떠한 정확한 패턴 순차 조직을 갖고 있어요.
05:07
그래서 이런 것들을 어느 정도 예상을 하고 기대할 수 있는 범위 내에서 프롬프트를 써주시면 좋습니다.
05:15
그래서 가장 쉽게 적용할 수 있는 예시는,
05:18
나는 지금부터 너한테 요청을 할 거야.
05:20
요청을 할 거니까 너는 수락과 거절을 표시를 해줘.
05:24
형태로 대답을 해줘.
05:26
라고 명시하면서 프롬프트를 한번 써보시겠어요?
05:28
그러면 이런 대화체 스타일이 순차 조직에 의해서 자연스러운 상호작용을 하게 하고,
05:36
그 다음에 말차례를 AI가 이끌어내는 것을 볼 수가 있습니다.
05:40
두 번째는 리페어를 한다. 라고 했을 때 메커니즘을 볼게요.
05:46
사람과 사람 사이의 대화에는 리페어가 엄청 많아요.
05:49
그래서 리페어의 종류는 스스로 자기 말을 수정하는 셀프 리페어가 있고,
05:54
다른 사람에 의해서 수정하는 아더 리페어가 있는데,
05:59
말하다가 수정하면 그건 사람이죠.
06:02
그래서 사람이 수정할 수 있도록 수리를 예약해줘야 된다는 컨셉을 가져가야 합니다.
06:08
대화를 하다가,
06:10
어? 이거 너가 답변한 게 조금 잘못된 것 같은데? 라고 하면서
06:13
코렉션을 하게 하는 그런 방식의 수리라고 말을 할 수가 있는데,
06:18
AI는 자기가 뭘 잘못했는지 지금 말을 못해요.
06:21
못하기 때문에 생성형 AI의 어떤 한계죠.
06:26
그렇게 설계된 어떤 문장에 있어서
06:28
잘못된 걸 수정하지 못하는 한계가 있기 때문에
06:31
저희가 프롬프트에 이런 걸 넣어줘야 돼요.
06:34
너가 정확하게 알지 못하거나 혹은 이해하지 못한 부분에 있어서는
06:46
수리를 해줘 라고만 얘기를 하더라도
06:50
답변에 있어서 아는 거를 안다라고 말을 하고
06:57
ACEBOOK
07:18
반면 모르는 건 불확실하다고 말을 할 수가 있고
07:48
잘못된 건 리페어를 하겠다고 말을 합니다
07:59
몇 곡 한번 적용해보시면 좋은 개념이고요
08:05
저는 리페어라는 용어를 정확하게 써요
08:08
내 프롬프트를 받고 답변에 있어서 수정하거나 틀린 표현이 있으면 다시 말을 해줘 라고 말을 합니다
08:16
그래서 답변에 AI가 수동적인 어떤 답변의 형태를 보여주는 게 아니라
08:22
굉장히 능동적으로 중간중간 내 질문에 있어서 확인을 한다거나 재요청을 합니다
08:29
세 번째는 활용적인 표시 장치 및 담화 표지를 이용하는 그런 방법이에요
08:35
첫 번째 두 번째 다 인간과 인간의 상호작용에서 오는 원리를 프롬프트에 적용해 봐서
08:42
생성형 AI 답변을 좋게 하는 방법론에 대해서 말씀을 드리고 있는데요
08:46
세 번째 역시 인간과 인간의 대화에서 착안한 현상이에요
08:51
사람은 음... 지금도 제가 이렇게 말할 때 음 이런 거 쓰잖아요
08:55
필러라고 하는데 문장과 문장 사이 혹은 단어와 단어 사이를 채우는 필러라는 걸 써서
09:02
어떤 매끄럽게 연결해 줄 수 있는 역할의 장치를 씁니다
09:06
AI를 어떻게 대화하느냐에 따라서 달라지는데
09:10
여러분들이 AI를 친구로 대하실수록
09:12
대화를 하는 타입으로 가실수록 더 좋은 답변을 받을 수밖에 없습니다
09:18
모델을 만든 어떤 모델사에서는
09:22
인간의 상호작용과 닮은 답변을 할수록 좋은 답변이라고 했고
09:29
그 좋은 답변에 보상을 줬어요
09:31
그래서 인간처럼 만약에 요청을 했는데
09:34
감사합니다 라고 AI가 답변을 했을 때
09:37
어? 너 정말 좋은 점수 받아야겠다 라고 이렇게 마킹을 했거든요
09:41
그런 식으로 강화학습을 시켰어요
09:44
그렇기 때문에 인간의 상호작용을 따라하게
09:48
어떤 원리나 현상을 반영하는 프롬프트로 대화체로 푼다라고 했을 때
09:53
더 좋은 답변을 받을 수밖에 없습니다
09:55
그래서 음 뭐 그러니까요 고마워 너도 알다시피
10:00
이런 식의 표현을 써 주시는 거예요
10:02
그랬을 때 어떠한 효과가 있는지는
10:04
직접 체험을 한번 해보시면 좋을 것 같아요
10:07
혹은 감정을 표현할 수도 있어요
10:10
대화를 받고서 너 정말 잘한다
10:14
너 진짜 진짜 대단하다 고맙습니다 라고
10:17
이러한 감정적인 게
10:19
긍정과 어떤 좋은 답변을 일으킨다 라는 연구 사례가 있습니다
10:23
AI한테 칭찬 혹은 감정을 자극하는 형용사
10:28
이런 담합 표지와 화용적 표시를 쓴다 라고 했을 때
10:33
AI는 더 친절하고 섬세한 답변을 해주고 있습니다
10:37
그래서 한번 적용을 해보세요
10:40
프롬프트에 뭐 예를 들어서 이 책에 대한 요약을 해줘
10:45
한문단을 요약해줘 라고 하지 마시고
10:49
내가 지금 진짜 친구처럼 말하는 것처럼
10:53
내가 지금 이 책을 대학교 교수님 레포트로서 내야 하는데
10:59
솔직히 나는 이게 좀 어려운 것 같아 라고 하면서
11:02
감정에 한번 호소를 해보고 비교를 한번 해보세요
11:06
그랬을 때 사람처럼 말하는 그 대화 스타일이
11:09
답변에 미러링 돼서 좋은 답변을 이끌어냅니다
11:12
논문 몇 개, 실증 연구 몇 개를 제가 가져왔어요
11:21
그중에 하나 소개해드리고 싶은 게요
11:23
비단 어떤 요약이나 번역 같은 일상적인 테스크가 아니라
11:28
컴퓨터 언어로 코드를 프로그래밍하는 데 있어서도
11:33
대화형 프롬프트를 적용을 하면
11:35
코드 개발 과제에서 더 우수한 성능을 얻을 수 있다는 것을
11:39
입증한 연구 논문이에요
11:41
그래서 대화형 방식이 가진 어떤 실증 사례라고 볼 수가 있고요
11:46
제가 생각했을 때 이 코드뿐 아니라
11:50
그냥 일상의 어떤 프롬프트에 있어도
11:52
접목할 만한 요소들이 너무 많거든요
11:54
그래서 한번 접목해 보시고
11:56
이거 실제 시연은 저희가 이제 4회차, 5회차
12:00
이제 실전 편에서 다뤄보겠습니다
12:02
네 번째 언어학의 이론, 상호작용학의 이론을 살펴볼 텐데
12:07
맥락의존성 및 함축성입니다
12:10
한국어는 주어, 동사, 목적어의 형태소, 형태학의 구조로 나오는데
12:17
대부분 주어를 빠뜨리시거나 목적어를 빠뜨리시거나 함으로써
12:22
어떠한 맥락이 굉장히 함축돼요
12:25
그래서 웬만하면 그런 주어, 목적어, 명사어를 다 살려주시는 게 좋은데
12:31
그렇지 않을 때 AI가 개싱할 수 있도록 하는 어떤 룸, 여지를 주시는 방식이에요
12:37
그랬을 때 말로 직접 언급하지 않아도
12:41
예를 들어서 지금 비가 오는데
12:43
이 상황에 분위기에 어울리는 소설을 써줘
12:46
라고 하면 이 AI가 비 온다
12:49
라고 했을 때 어떤 연상들을 하겠죠
12:52
혹은 커먼 센스라는 게 있어요
12:54
만약에 제가 지금 방송하고 있는 상황에서
12:56
어떤 상호적인 배경 지식을 가지고
12:59
스크립트에 부족한 점을 보완해줘
13:02
라고 이렇게 상황적 맥락을 준 것의 결과와
13:05
맥락을 주제하는 결과에서는
13:07
현저한 차이가 발생할 수밖에 없습니다
13:10
그래서 이렇게 한번 프롬프트에
13:13
답변할 때 어떤 맥락적인 의미를 넣어서
13:17
암시나 배경 지식을 고려해서
13:20
추가 정보를 담아 답변해줘
13:22
라고 한다고 하면 더 훨씬 좋은 답변을 받으실 거예요
13:27
마지막 공손성인데요
13:29
아까 전에 긍정학습을 했기 때문에
13:32
모델이 공손성을 표현하면
13:34
혹은 상호작용을 인간처럼 하면
13:37
더 답변을 잘한다 라는 게 어떤 정설이에요
13:40
그래서 공손하다라는 원리를 반영해서
13:43
프롬프트를 쓰면
13:44
실제로 답변의 길이가 정말 길어지고
13:47
좋아지거든요
13:48
그래서 쌤할트머니
13:50
플리즈랑 땡큐를 쓰는 사용자 때문에
13:53
언어 사용 비용이 어마어마해지고 있다
13:55
라는 인터뷰를 한 적이 있어요
13:57
다 쓰시고 고마워
13:59
칭찬을 한번 해 주시거나
14:02
혹은 아니면 아예 존댓말로
14:05
지금 나는 이런 것들이 필요한데
14:07
요약해 주세요 라고
14:09
공손 형태로 쓴 표현에서
14:11
답변이 더 좋아지거든요
14:12
모델이 답변한 거를 다 채점하게 한 거예요
14:15
라벨링을 해요
14:16
그래서 이건 좋은 답변
14:17
이건 나쁜 답변을 라벨링하게 했어요
14:19
그랬을 때 좋은 답변이라고 했던 거는
14:22
인간처럼 상호작용하는 자연스러운 결과
14:25
정확한 결과 여러 가지 기준이 있었는데
14:28
긍정적인 상호작용을 하게 한 좋은 답변을 줬기 때문에
14:32
공손성이나 자연스러움을 보이는 거에
14:35
더 좋은 상세하게 답변을 하게 하도록 설계되어 있어서 그렇습니다
14:39
그래서 공손하게 대하고 어떤 표현을 끝냈다라고
14:43
이렇게 화답하는 그러한 과정을 거치면
14:46
답변이 좋아지는 사례에 대한 논문입니다
14:49
그래서 이 논문에서는요
14:51
진짜 공손하게 말하면 답변을 잘할까? 그런 실험을 한 거예요
14:55
영어, 중국어, 일본어를 가지고 실험을 했는데
14:58
영어에는 아나리픽이라는 존댓말이 없어요
15:02
중국어는 존댓말이 발달하기는 했대요
15:05
그리고 일본어는 있고
15:07
그래서 공손함의 정도를 진짜 공손한 거
15:10
중립적인 거, 명령형을 써가지고
15:14
프롬프트로 결과 차이를 본 거예요
15:16
그랬을 때 공손한 표현에 있어서
15:19
답변의 결과가 좋았다라고 합니다
15:22
오히려 영어와 중국어는 공손 화법에 대한 표현이
15:26
적 없다 보니까
15:28
지나치게 명령적인 표현들이
15:30
답변의 결과에 정확도를 떨어지게 했다라는 결과고요
15:34
일본어 같은 경우는
15:36
더 높은 공손 수준의 표현이 긍정적 효과를 낳았다라고 합니다
15:41
이 논문이 시사하는 바는요
15:43
한국어는 굉장히 존경어와
15:46
어떤 겸양어가 발달한 언어잖아요
15:48
그래서 그냥 AI한테 반말로 하는 것보다
15:51
뭔가 결과물이 잘 나오지 않는다라고 하면
15:54
여러분의 프롬프트를 존댓어로 바꿔보시고
15:56
공손하게 바꿔보세요
15:58
그러면 더 좋은 응답을 받으실 수가 있습니다
16:02
요즘 이제 모델이 출원 모델이 있고
16:04
비출원 모델이 있는데
16:06
출원 모델 같은 경우에는
16:08
학습을 시키는데
16:10
라벨링은 안 할 수는 없는 것 같아요
16:12
왜냐하면 뭐 벤치마크라고 있어요
16:14
이 모델 하나 나오면 얼마나 문제를 잘 푸는가
16:17
정답이 있는 문제를 얼마나 잘 맞추는가
16:19
정답이 없는 문제에 대해서는
16:21
어떻게 평가를 할 것인가에 대한
16:23
레이블링을 꼭 하고 있어서
16:25
필수적인 거죠
16:27
덤지업 덤지다운도 있잖아요
16:29
인간 선호도 평가를 하기 위해서
16:31
그러면 이렇게 나쁜 답변 받는 것도
16:33
따로 모아서 학습시키고 이러다 보니까
16:35
사람은 언제 답변을 좋아하는가
16:37
싫어하는가가 현상으로 보이거든요
16:40
그래서 라벨링은 아주 필수 작업입니다
16:43
3회차에서는 저희가
16:45
인간의 상호작용 원리를 이용한
16:50
언어학의 기반 프레임워크와 함께
16:53
4가지 이론과 5가지 프롬프트 방식에 대해서 살펴봤어요
16:57
그래서 직접 적용하셔서
16:59
생성형 AI를 쓸 때
17:01
바로 한번 답변을 받아보시면 좋을 것 같습니다
17:05
고맙습니다
17:11
고맙습니다
17:21
고맙습니다
17:23
고맙습니다
추천
16:06
|
다음 순서
한국기행.E5433.250707
ontvkorea
오늘
16:58
클래스 e 1.250703
ontvkorea
5일 전
16:27
클래스 e 1.250701
ontvkorea
2025. 7. 1.
16:56
클래스 e 1.250624
ontvkorea
2025. 6. 24.
18:00
클래스 e 1.250626
ontvkorea
2025. 6. 26.
16:57
클래스 e 1.250604
ontvkorea
2025. 6. 4.
16:37
클래스 e 1.250609
ontvkorea
2025. 6. 9.
17:17
클래스 e 1.250625
ontvkorea
2025. 6. 25.
18:03
클래스 e 3.250603
ontvkorea
2025. 6. 3.
18:04
클래스 e 3.250609
ontvkorea
2025. 6. 9.
17:29
클래스 e 2.250604.720p-NEXT
ontvkorea
2025. 6. 4.
20:34
모닝와이드 1부.250701
ontvkorea
2025. 7. 1.
1:14:58
공부와 놀부.E10.250602
ontvkorea
2025. 6. 2.
20:33
모닝와이드 1부.250703
ontvkorea
5일 전
19:17
모닝와이드 1부.250624
ontvkorea
2025. 6. 24.
20:56
모닝와이드 1부.250705
ontvkorea
그저께
17:51
클래스 e 1.250707
ontvkorea
어제
20:56
모닝와이드 1부.250626
ontvkorea
2025. 6. 26.
1:04:32
모닝와이드 2부.250701
ontvkorea
2025. 7. 1.
1:03:27
모닝와이드 2부.250702
ontvkorea
6일 전
20:02
모닝와이드 1부.250704
ontvkorea
4일 전
1:26:19
Doraemon Movie - Nobita's Sky Utopia 2023
Zabeyaar Khan
5일 전
59:24
KBS 뉴스 9.250707
ontvkorea
오늘
1:01:33
무엇이든 물어보살.E323.250707
ontvkorea
오늘
1:07:31
ON YOUR ARTIST.E02.250707
ontvkorea
오늘