هوش مصنوعی امکان شبیه سازی صداها را فراهم می کند - فرا اپلای
لوگو فرااپلای

هوش مصنوعی امکان شبیه سازی صداها را فراهم می کند

تقلید صدا با هوش مصنوعی

این ابزار می تواند به کلاهبرداران کمک کند!

 

جیانیفر د استفانو به تماس شماره ای که نمی شناخت پاسخ داد. صدای دخترش که گریه می کرد به او گفت: “مامان، حالم خوب نیست، این مردان بد من را دزدیده اند.” مردی تقاضای پول کرد و گفت اگر پول را ندهد دخترش را با مواد مخدر معتاد و او را در مکزیک رها می‌کند. اما در حالی که او آن شخص را پشت تلفن نگه داشت، دوستانش موفق شدند به دخترش برسند، اما متوجه شدند که او در واقع آزاد و در یک سفر اسکی در آریزونا است. صدای استفاده شده در گوشی جعلی بود.

خانم د استفانو که هنوز در شوک بود، این داستان را برای جلسه استماع کمیته فرعی سنای آمریکا در مورد هوش مصنوعی در ژوئن تعریف کرد.

خطراتی که فناوری شبیه سازی صدا ایجاد می کند، اکنون با صدای بلند بیان می شوند. در ماه‌های اخیر، بیشتر توجه به هوش مصنوعی (Ai) به مدل‌های به اصطلاح «مدل‌های زبان بزرگ» مانند Chatgpt معطوف شده است که متن را تولید می‌کنند. اما پیامدهای شبیه سازی صدا نیز عمیق خواهد بود.

کاربرد های تقلید صدا با هوش مصنوعی

نمونه مختصری از یک صدا را می توان برای آموزش یک مدل ai استفاده کرد، که سپس می تواند هر متنی را که شبیه به آن شخص باشد، بیان کند. انتظار می رود اپل این ویژگی را برای آیفون ها در سیستم عامل جدید خود یعنی ios 17 قرار دهد که قرار است در ماه سپتامبر منتشر شود.

این ابزار به عنوان کمک به افرادی که ممکن است در معرض خطر از دست دادن صدای خود باشند، مثلا به یک بیماری دژنراتیو مانند als مبتلا باشند، کمک کند.

برای کسانی که مشتاق هستند هم‌اکنون شبیه‌سازی صوتی را امتحان کنند، ElevenLabs، یک استارت‌آپ هوش مصنوعی، به کاربران این فرصت را می‌دهد که در عرض چند دقیقه کلون‌های خود را ایجاد کنند. نتایج به طرز نگران کننده ای دقیق هستند و صدا لحنی واقعی خواهد داشت، از جمله مکث‌ها و تلو تلو خوردن‌ها. 

تیلور جونز، زبان شناس و مشاور، در یک ویدیوی یوتیوب به کیفیت صدای شبیه سازی ElevenLabs نگاهی دقیق انداخت. او با استفاده از آزمون‌های آماری نشان داد که در تلفظ برخی حروف صدادار مشکلات کمی وجود دارد. اما یک آزمایش با نیاز به تخصص و تکنولوژی پایین تر، یک «مکالمه» با مادر خودش، زنی را که او را بزرگ کرده فریب داد.

او هشدار داد: «دیگر این کار را نکن.» جانسون این آزمایش را با مادرش تکرار کرد، و باز هم نتیجه ترسناک بود.

چندین سال است که مشتریان توانسته‌اند خود را از طریق تلفن به بانک و سایر شرکت‌ها با استفاده از صدایشان بشناسانند. این یک ارتقاء امنیتی بود نه یک خطر. اما حالا تقلید صدا با هوش مصنوعی یک تهدید است.

 

تهدیدی برای دوبلورها

مهارت‌های صداپیشگان که در طول عمر آموزش دیده‌اند، می‌توانند در عرض چند ثانیه از بین بروند. روزنامه انگلیسی تلگراف، اخیراً در مورد بازیگرانی گزارش داده است که به اشتباه حق پخش صدای خود را امضا کرده اند و امکان شبیه سازی آنها را بدون هیچ هزینه ای ممکن ساخته اند، این افراد در آینده به قراردادهای جدید نیاز دارند.

اما برخی از بازیگران ممکن است در واقع شبیه سازی را امری کاربردی برای حرفه خود بدانند. وال کیلمر، که بسیاری از صدای خود را به دلیل سرطان گلو از دست داده است، از بازیابی صدایش برای “Top Gun: Maverick” خوشحال بود، همچنین برخی از دوبلور ها نیاز به رفتن به استودیو برای بازخوانی نداشته باشند. 

صنعت دیگری که باید با ظهور تکنولوژی تقلید صدا کنار بیاید، روزنامه نگاری است. ضبط‌های دروغین مدت‌هاست که موضوع اخبار پر طرفدار بوده است. حالا چه کسی به داستانی بر اساس یک کلیپ صوتی اعتماد خواهد کرد؟

اثبات واقعی بودن یک کلیپ سخت و شاید حتی غیرممکن باشد، روزنامه‌نگاران باید نشان دهند که چگونه فایل‌های صوتی را به‌دست آورده‌اند و چگونه ذخیره کرده‌اند مگر اینکه مثل همیشه قول داده باشند که نام منبع را فاش نکنند.

در اولین دوره ریاست جمهوری خود، آقای ترامپ بیش از هر کس دیگری برای رایج کردن اصطلاح «اخبار جعلی» تلاش کرد. و این اتفاق قبل از اینکه شبیه سازی صدا، ویدیوهای عمیق جعلی، تصاویر تولید شده مصنوعی و مواردی از این دست به طور گسترده منتشر شوند، اتفاق افتاده بود. 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *