OpenAI ra mắt công cụ giả giọng nói trên mẫu âm thanh 15 giây

10:11 - 05/04/2024

Công cụ mới của OpenAI có thể sao chép giọng nói của người nào đó dựa trên mẫu âm thanh 15 giây.

OpenAI ra mắt công cụ giả giọng nói trên mẫu âm thanh 15 giây

 

OpenAI mới đây đã giới thiệu một công cụ nhân bản giọng nói nhưng sẽ được kiểm soát chặt chẽ cho đến khi các biện pháp bảo vệ được áp dụng để ngăn chặn các tin giả âm thanh nhằm đánh lừa người nghe.

Theo bài đăng trên blog của OpenAI chia sẻ kết quả thử nghiệm quy mô nhỏ của "Voice Engine", công cụ này cơ bản có thể sao chép giọng nói của người nào đó dựa trên mẫu âm thanh 15 giây.

OpenAI thừa nhận việc tạo ra giọng nói tiềm ẩn những rủi ro nghiêm trọng, đặc biệt là trong năm bầu cử. Tuy nhiên, công ty này cho biết đang hợp tác với các đối tác trong nước và quốc tế từ chính phủ, các cơ quan truyền thông, giải trí, giáo dục, xã hội dân sự và các lĩnh vực khác với mục đích tiếp thu các ý kiến phản hồi để xây dựng phát triển công cụ này an toàn.

OpenAI cho biết đã triển khai một bộ các biện pháp an toàn, bao gồm đánh dấu nguồn gốc của bất kỳ âm thanh nào được Voice Engine tạo ra cũng như chủ động theo dõi cách thức sử dụng công cụ này.

Tháng 2 vừa qua, OpenAI tuyên bố đang thử nghiệm mô hình chuyển văn bản thành video mang tên Sora, cho phép người dùng tạo ra những video chân thực chỉ bằng một câu lệnh đơn giản. Sự xuất hiện của công cụ Sora do OpenAI phát triển làm dấy lên lắng xen lẫn hào hứng của cộng đồng các chuyên gia truyền thông và họa sĩ thiết kế game. Theo đánh giá, Sora có khả năng làm tăng tốc độ làm việc của các nhà làm phim, đồng thời thay thế hoàn toàn những kỹ sư đồ họa ít kinh nghiệm.

Các nhà nghiên cứu về thông tin sai lệch lo ngại những nguy cơ từ việc lạm dụng ồ ạt các ứng dụng chạy bằng AI trong năm bầu cử quan trọng do các công cụ nhân bản giọng nói đang gia tăng, giá rẻ, dễ sử dụng và khó truy vết.

Một trong những ví dụ là cuộc gọi được tạo ra bằng AI, sản phẩm trí tuệ của một nhân viên vận động hành lang cho nghị sĩ Minnesota Dean Phillips, có giọng nói giống như Tổng thống Joe Biden kêu gọi mọi người không bỏ phiếu trong cuộc bầu cử sơ bộ New Hampshire vào tháng 1/2024.

Sự cố này khiến các chuyên gia lo ngại về một làn sóng thông tin sai lệch dạng Deepfake (âm thanh hoặc video giả mạo) do AI tạo ra trong cuộc đua vào Nhà Trắng năm 2024 cũng như các cuộc bầu cử quan trọng khác trên toàn cầu trong năm nay.


 

 

 

 

 

Bình luận (0)

Gửi bình luận của bạn

Captcha

TIN CÙNG CHUYÊN MỤC

LỊCH PHÁT SÓNG TRUYỀN HÌNH

Thanh toán hóa đơn SCTV

Cáp nét siêu tốc - Cơn lốc quà tặng từ SCTV

TRỌN GÓI INTERNET SIÊU TỐC - TRUYỀN HÌNH KỸ THUẬT SỐ ĐỈNH CAO TỪ SCTV

 

Liên kết trang

sctvonline Trang tin nhịp sống hôm nay
scj-shopping Truyền hình cáp SCTV

 

Nguồn: Vietcombank

Kết quả xổ số

 

Nguồn: Minh Ngọc

Truyền hình - Điện ảnh

Scroll

Đang gửi...