Mockly로 페이크 DM 스크린샷 이미지 만들기

여러분은 DM스크린샷을 100% 믿으시나요? 이 DM이 진짜 그 사람과 1:1로 주고 받은 지, 정말 믿을 수 있나요?
누군가와 직접 이야기를 나눈 것처럼 DM 스크린샷을 직접 만들 수 있다면?

페이크 메시지 스크린캡쳐(스크린샷) 생성기

Mockly (https://mockly.mauricekleine.com)

Mockly 라는 서비스를 사용하면, iMessage, Discord, Instagram, X, Tinder, WhatsApp 등 DM스크린샷 이미지를 생성할 수 있습니다.

Mockly로 페이크 DM 스크린샷 이미지 만들기

다양한 메신저 및 SNS를 지원하기 때문에, 다양한 페이크 (?!) DM스크린샷을 제작해볼 수 있어요.
가짜iMessage생성기, Fake iMessage Generator,, 등으로도 불리우네요.
단점은, 웹페이지 캡쳐 형태로만 지원한다는거에요.

Postfully https://postfully.app/tools/text-message-generator

모바일 버전을 지원하는 또 다른 서비스가 있는데요. 바로 Postfully 라는 서비스에요. 이 서비스는 모바일 버전을 지원하는 대신 플랫폼은 iMessage만 지원하고 있답니다.

AI가 발전하면서,, 페이크 생성기가 점점 더 많이 생기고 있어요. 앞으로 우리는 과연 어떻게 진짜와 가짜를 구분하게 될까요?

가짜 AI(Fake AI)의 시대: 장단점과 심리학적 해법

인공지능(AI) 기술이 발전하며 진짜와 거의 구별이 불가능한 ‘가짜 AI(Fake AI)’ 또는 ‘딥페이크(Deepfake)’가 우리 사회에 깊숙이 파고들고 있습니다. 진짜 같은 가짜를 만들어내는 이 기술은 다양한 분야에서 가능성을 열어주기도 하지만, 동시에 심각한 사회적 문제를 야기하며 우리에게 “앞으로 무엇을 믿어야 하는가”라는 근본적인 질문을 던지고 있습니다.

FAKE AI의 두 얼굴: 장점과 단점

FAKE AI 기술은 명확한 장단점을 가지고 있으며, 이를 이해하는 것이 중요합니다.

장점:

  • 엔터테인먼트 산업의 혁신: 영화 제작에서 배우의 젊은 시절을 재현하거나, 고인이 된 배우를 스크린에 되살리는 등 시공간의 제약을 뛰어넘는 콘텐츠 제작이 가능해졌습니다. 또한, 다국어 더빙 시 배우의 입 모양을 자연스럽게 해당 언어에 맞게 바꿔주어 몰입감을 높이는 데도 활용됩니다.
  • 교육 및 의료 분야의 발전: 역사적 인물이나 사건을 생생하게 재현하여 교육적 효과를 높일 수 있습니다. 의료계에서는 희귀 질환의 의료 데이터를 합성하여 학생들의 학습이나 AI 진단 모델 개발에 사용하는 등 긍정적인 활용 가능성을 보여주고 있습니다.
  • 긍정적 사회 캠페인: 독립운동가의 모습을 딥페이크 기술로 복원하여 그들의 업적을 기리는 캠페인처럼, 사회적으로 긍정적인 메시지를 전달하고 역사적 인물에 대한 친밀감을 높이는 데 사용될 수 있습니다.

단점:

  • 가짜뉴스와 사회 혼란: FAKE AI의 가장 큰 폐해는 가짜뉴스 제작 및 유포에 악용될 수 있다는 점입니다. 특정 정치인의 발언을 조작하여 선거에 영향을 미치거나, 사회적 혼란을 야기하는 등 민주주의의 근간을 흔들 수 있는 심각한 위협이 됩니다.
  • 범죄 악용: 유명인의 얼굴을 합성한 음란물 제작 및 유포는 심각한 인권 침해 문제입니다. 또한, 가족이나 지인의 목소리를 위조한 보이스피싱, 특정 인물을 사칭한 금융 사기 등 각종 범죄에 악용되어 금전적, 정신적 피해를 야기합니다.
  • 신뢰 사회의 붕괴: 진짜와 가짜의 경계가 무너지면서 사회 전반의 신뢰가 하락할 수 있습니다. 어떤 정보나 영상을 접했을 때 그것이 사실인지 의심부터 하게 되면서 사회적 불신이 팽배해지고, 이는 사회 통합을 저해하는 요인이 될 수 있습니다.

우리는 어떻게 진짜와 가짜를 구분해야 하는가?

이처럼 FAKE AI가 만연한 시대에, 심리학자들은 인간의 인지적 한계를 인정하고 새로운 차원의 미디어 리터러시(Media Literacy) 능력을 함양해야 한다고 조언합니다.

1. 인간의 인지적 취약성 인정:

심리학 연구에 따르면, 인간은 생각보다 AI가 만들어낸 가짜 이미지나 영상을 잘 구분하지 못합니다. 특히 AI가 생성한 백인 얼굴을 실제 사람보다 더 진짜 같다고 판단하는 경향이 있다는 연구 결과도 있습니다. 이는 인간의 뇌가 익숙하고 전형적인 형태에 더 쉽게 속는다는 것을 보여줍니다. 우리는 스스로의 판단을 과신하지 말고, 언제든 속을 수 있다는 ‘인지적 겸손’을 갖추는 것이 중요합니다.

2. 비판적 사고와 분석적 관찰 습관화:

진실과 거짓을 구분하기 위해서는 콘텐츠를 수동적으로 소비하는 태도에서 벗어나, 능동적으로 분석하고 비판적으로 사고하는 습관을 길러야 합니다.

  • 맥락과 출처 확인: 어떤 정보든 그 내용이 제시된 맥락을 살피고, 신뢰할 수 있는 출처에서 나온 정보인지 반드시 확인해야 합니다. 충격적이거나 자극적인 내용일수록 한 걸음 물러서서 사실 여부를 교차 검증하는 것이 필수적입니다.
  • 세부적인 불일치 찾기: FAKE AI 기술이 정교해졌다고는 하지만, 여전히 완벽하지는 않습니다. 영상 속 인물의 눈 깜빡임이 부자연스럽거나, 얼굴 주변의 경계선이 미세하게 깨지는 현상, 조명이나 그림자의 불일치, 목소리의 톤이나 감정 표현의 어색함 등 세부적인 단서를 통해 가짜를 판별할 수 있습니다. 텍스트의 경우, 어색한 문법이나 부자연스러운 단어 선택 등도 의심의 단초가 될 수 있습니다.

3. 감정적 반응에 대한 자각:

가짜뉴스는 주로 분노, 불안, 혐오와 같은 강한 감정을 유발하여 이성적인 판단을 마비시키고 빠르게 확산되는 특징이 있습니다. 특정 콘텐츠를 접했을 때 강한 감정적 동요가 일어난다면, 즉각적으로 반응하기보다는 잠시 멈추어 ‘이 정보가 나의 감정을 조종하려는 의도를 가지고 있지는 않은가?’라고 자문해볼 필요가 있습니다.

4. 기술적 해결책과 사회적 노력의 병행:

개인의 노력만으로는 FAKE AI의 확산을 막기 어렵습니다. AI가 생성한 콘텐츠에 워터마크를 삽입하거나, 콘텐츠의 진위 여부를 판별하는 기술을 개발하는 등 기술적 대응이 필요합니다. 또한, FAKE AI를 악용한 범죄에 대한 강력한 법적 처벌과 함께, 사회 전반적으로 미디어 리터러시 교육을 강화하여 시민들의 분별력을 높이는 노력이 병행되어야 합니다.

결론적으로, FAKE AI 시대에 진짜와 가짜를 구분하는 것은 단순히 ‘눈썰미’의 문제가 아니라, 비판적 사고 능력과 다각적인 검증 습관, 그리고 자신의 인지적 한계에 대한 이해를 바탕으로 하는 종합적인 ‘미디어 리터러시’의 문제입니다. 기술의 발전을 되돌릴 수 없다면, 그 기술을 올바르게 이해하고 현명하게 대처하는 능력을 기르는 것이 우리 모두에게 주어진 과제일 것입니다.

Leave a Comment