William (@ShipThatAGI)
이미지 생성물에 보이지 않는 워터마크를 넣어 'Made with AI' 같은 표시가 없는 합성 이미지의 유통을 막아야 한다는 주장이다. AI 이미지 식별과 투명성 강화를 위한 기술적 대응 필요성을 언급한다.
https://x.com/ShipThatAGI/status/2048814816815382534
#aiimages #watermarking #contentauthenticity #generativeai #safety
Microsoft Research (@MSFTResearch)
이 트윗은 합성 미디어(synthetic media)의 확산으로 인해 콘텐츠의 진위와 출처 검증이 더욱 중요해지고 있음을 강조한다. 게시자는 이미지, 오디오, 비디오의 진위성 및 출처 인증 기술, 그 한계와 실질적 적용 방안을 다룬 최신 보고서 발행을 언급한다. 미디어 신뢰성과 AI 생성 콘텐츠 검증 기술의 연구 동향을 보여준다.

As synthetic media grows, verifying what’s real, and the origin of content, matters more than ever. Our latest report explores media integrity and authentication methods, their limits, and practical paths toward trustworthy provenance across images, audio, and video.
#introduction 👋 I'm Alex, a researcher studying how generative AI reshapes disinformation and public trust.
Building JudgeGPT, a platform evaluating if people can tell AI-generated news from human-written articles. Spoiler: they mostly can't.
Also writing books on data viz & AI and building iOS apps like Origin Lens (C2PA image verification).
Interested in #misinformation #disinformation #AIethics #ContentAuthenticity #DeepFakes #NLP #HCI #MediaForensics
🔬 github.com/aloth/JudgeGPT
Felipe’s Friday Forage: People-First Content Creation: How to Prove E-E-A-T with Experience
In a web overflowing with generic AI-written advice, people-first content creation is how you stand out—by showing real, firsthand experience readers can trust. Learn how to prove E-E-A-T with specific stories, evidence, and details that turn “tips” into genuinely helpful guidance.