این ابزار می تواند به کلاهبرداران کمک کند!
جیانیفر د استفانو به تماس شماره ای که نمی شناخت پاسخ داد. صدای دخترش که گریه می کرد به او گفت: “مامان، حالم خوب نیست، این مردان بد من را دزدیده اند.” مردی تقاضای پول کرد و گفت اگر پول را ندهد دخترش را با مواد مخدر معتاد و او را در مکزیک رها میکند. اما در حالی که او آن شخص را پشت تلفن نگه داشت، دوستانش موفق شدند به دخترش برسند، اما متوجه شدند که او در واقع آزاد و در یک سفر اسکی در آریزونا است. صدای استفاده شده در گوشی جعلی بود.
خانم د استفانو که هنوز در شوک بود، این داستان را برای جلسه استماع کمیته فرعی سنای آمریکا در مورد هوش مصنوعی در ژوئن تعریف کرد.
خطراتی که فناوری شبیه سازی صدا ایجاد می کند، اکنون با صدای بلند بیان می شوند. در ماههای اخیر، بیشتر توجه به هوش مصنوعی (Ai) به مدلهای به اصطلاح «مدلهای زبان بزرگ» مانند Chatgpt معطوف شده است که متن را تولید میکنند. اما پیامدهای شبیه سازی صدا نیز عمیق خواهد بود.
کاربرد های تقلید صدا با هوش مصنوعی
نمونه مختصری از یک صدا را می توان برای آموزش یک مدل ai استفاده کرد، که سپس می تواند هر متنی را که شبیه به آن شخص باشد، بیان کند. انتظار می رود اپل این ویژگی را برای آیفون ها در سیستم عامل جدید خود یعنی ios 17 قرار دهد که قرار است در ماه سپتامبر منتشر شود.
این ابزار به عنوان کمک به افرادی که ممکن است در معرض خطر از دست دادن صدای خود باشند، مثلا به یک بیماری دژنراتیو مانند als مبتلا باشند، کمک کند.
برای کسانی که مشتاق هستند هماکنون شبیهسازی صوتی را امتحان کنند، ElevenLabs، یک استارتآپ هوش مصنوعی، به کاربران این فرصت را میدهد که در عرض چند دقیقه کلونهای خود را ایجاد کنند. نتایج به طرز نگران کننده ای دقیق هستند و صدا لحنی واقعی خواهد داشت، از جمله مکثها و تلو تلو خوردنها.
تیلور جونز، زبان شناس و مشاور، در یک ویدیوی یوتیوب به کیفیت صدای شبیه سازی ElevenLabs نگاهی دقیق انداخت. او با استفاده از آزمونهای آماری نشان داد که در تلفظ برخی حروف صدادار مشکلات کمی وجود دارد. اما یک آزمایش با نیاز به تخصص و تکنولوژی پایین تر، یک «مکالمه» با مادر خودش، زنی را که او را بزرگ کرده فریب داد.
او هشدار داد: «دیگر این کار را نکن.» جانسون این آزمایش را با مادرش تکرار کرد، و باز هم نتیجه ترسناک بود.
چندین سال است که مشتریان توانستهاند خود را از طریق تلفن به بانک و سایر شرکتها با استفاده از صدایشان بشناسانند. این یک ارتقاء امنیتی بود نه یک خطر. اما حالا تقلید صدا با هوش مصنوعی یک تهدید است.
تهدیدی برای دوبلورها
مهارتهای صداپیشگان که در طول عمر آموزش دیدهاند، میتوانند در عرض چند ثانیه از بین بروند. روزنامه انگلیسی تلگراف، اخیراً در مورد بازیگرانی گزارش داده است که به اشتباه حق پخش صدای خود را امضا کرده اند و امکان شبیه سازی آنها را بدون هیچ هزینه ای ممکن ساخته اند، این افراد در آینده به قراردادهای جدید نیاز دارند.
اما برخی از بازیگران ممکن است در واقع شبیه سازی را امری کاربردی برای حرفه خود بدانند. وال کیلمر، که بسیاری از صدای خود را به دلیل سرطان گلو از دست داده است، از بازیابی صدایش برای “Top Gun: Maverick” خوشحال بود، همچنین برخی از دوبلور ها نیاز به رفتن به استودیو برای بازخوانی نداشته باشند.
صنعت دیگری که باید با ظهور تکنولوژی تقلید صدا کنار بیاید، روزنامه نگاری است. ضبطهای دروغین مدتهاست که موضوع اخبار پر طرفدار بوده است. حالا چه کسی به داستانی بر اساس یک کلیپ صوتی اعتماد خواهد کرد؟
اثبات واقعی بودن یک کلیپ سخت و شاید حتی غیرممکن باشد، روزنامهنگاران باید نشان دهند که چگونه فایلهای صوتی را بهدست آوردهاند و چگونه ذخیره کردهاند مگر اینکه مثل همیشه قول داده باشند که نام منبع را فاش نکنند.
در اولین دوره ریاست جمهوری خود، آقای ترامپ بیش از هر کس دیگری برای رایج کردن اصطلاح «اخبار جعلی» تلاش کرد. و این اتفاق قبل از اینکه شبیه سازی صدا، ویدیوهای عمیق جعلی، تصاویر تولید شده مصنوعی و مواردی از این دست به طور گسترده منتشر شوند، اتفاق افتاده بود.