
Sự phản xạ ánh sáng thực tế hơn. Như đã phân tích ở phần raster vs. ray tracing, những gì chúng ta “nhìn thấy” đều đến từ việc vật liệu hấp thụ & phản xạ (tán xạ) ánh sáng môi trường như thế nào. Tuy vậy mỗi loại vật liệu khác nhau sẽ có tỷ lệ hấp thụ & phản xạ khác nhau. Vật “rắn” hoàn toàn sẽ phản xạ khác vật “trong suốt” hoặc “trong mờ” (tuỳ hệ số chiết quang). Thậm chí góc tới của tia sáng cũng sẽ cho màu sắc khác nhau. Ở đây, dưới sự kết hợp của Neural Materials và NRC, các nhân AI sẽ tiến hành tổng hợp các kịch bản tán xạ ánh sáng khác nhau để tạo ra RTX Skin. Trong đó nếu vật liệu có yếu tố trong mờ (ngọc đá quý chẳng hạn), hiệu ứng ánh sáng của chúng sẽ khác so với kiểu render truyền thống.
Sự kết hợp giữa Neural Materials và Neural Radiance Cache giúp tạo ra hiệu ứng quang học chân thực hơn
Tạo hình biểu cảm khuôn mặt dễ dàng hơn. Thực tế thứ này chắc bạn đã thấy đầy rẫy khắp nơi dưới tên gọi Generative AI và kết quả thì ai cũng tự kiểm định được. Tất nhiên khi áp dụng vào game (dưới tên gọi Neural Faces), nó sẽ giúp các nhà phát triển tiết kiệm thời gian hơn để xây dựng cơ sở dữ liệu cho các nhân vật. Nếu lúc trước họ phải chụp hình từng biểu cảm khác nhau (buồn vui giận hờn khóc cười…) để đưa vô game thì nay dựa trên cơ sở dữ liệu sẵn có, nhân AI có thể tự làm ra chúng thay cho phương pháp “thủ công truyền thống”.
Dựng hình “lông tóc” nhanh chóng hơn. Dù ít ai nhắc tới nhưng “lông tóc” luôn là thứ đau đầu trong tạo hình 3D – chúng “ngốn” rất nhiều đa giác và dĩ nhiên, ngốn nhiều sức mạnh GPU để vẽ ra. Trong 1 câu chuyện không liên quan là tạo hình form Super Saiyan 3 (SS3) của Goku (Dragon Ball). Dù nhìn SS3 đúng “ngầu” thật nhưng số “tóc” mà tác giả phải bỏ công vẽ cho từng khung hình quả thật quá mất công! Thế nên sau khi Akira Toriyama nhận ra vấn đề thì ông đã nhanh chóng kết thúc “vòng đời” cho form này. Đi “nhuộm đầu” xanh đỏ tím vàng rose đơn giản lẹ làng hơn nhiều =)))))
Vẽ “lông tóc” trên Blackwell sẽ dễ dàng hơn khi tiêu tốn ít tài nguyên hơn
Quay lại với NVIDIA, một liệu pháp đơn giản hơn được đặt ra là thay vì dùng thật nhiều đa giác để tạo hình sợi tóc thì hãy thay bằng các đường cong xéo góc (linear-swept spheres) nối lại với nhau thông qua kỹ thuật ray tracing. Như thế số lượng đa giác cần thiết để vẽ sẽ giảm đi đáng kể mà hiệu ứng thị giác gần như không có khác biệt. Tất nhiên tốn ít đa giác hơn thì số FPS sẽ cao hơn, cho cảm giác gaming mượt hơn.
Ray tracing được tối ưu hơn. “Tối ưu” ở đây bạn cần hiểu là mức độ chi tiết sẽ khác nhau ở từng chủ thể khác nhau, chứ không phải mọi chủ thể sẽ tăng độ chi tiết (hơn thế hệ trước). Như bạn đã biết, “chi phí” ray tracing rất “đắt” chứ không “rẻ”. Nếu áp dụng chung một mức độ chi tiết (LOD) cho từng pixel thì hiệu năng sẽ rất thấp. Vì thế NVIDIA bổ sung thêm tính năng RTX Mega Geometry, vốn dựa trên nền tảng BVH (Bounding Volume Hierarchy). Trong đó từng khối pixel có độ chi tiết (LOD) khác nhau sẽ được gom thành một nhóm (cluster) để ray trace ở quy mô khác nhau. Như vậy chỉ khu vực nào cần rõ ràng cụ thể thì chúng sẽ được ưu tiên tính toán nhiều hơn, các khu vực xa mờ không đáng kể thì “lớt phớt” là được.
RTX Mega Geometry giúp ray tracing hiệu quả cao hơn tuỳ mức độ chi tiết chủ thể
DLSS 4 và mô hình AI Transformer
Quảng cáo
Một trong các nhân tố chính để vận hành cỗ máy AI chính là mô hình mà nó sử dụng để tương tác và xử lý dữ liệu. Nôm na nó cũng giống như kiến trúc vi xử lý hay sơ đồ cấu tạo của một công ty doanh nghiệp. Dĩ nhiên mỗi mô hình kiến trúc sẽ có đặc điểm khác nhau, ưu điểm, khuyết điểm. Đối với GPU nói riêng trong những năm gần đây, chúng sử dụng mô hình CNN (Convolutional neural network). Đây là mô hình gần như là tiêu chuẩn công nghiệp trong việc xử lý văn bản, hình ảnh, âm thanh.
Cách thức xử lý dữ liệu của CNN dựa trên phép nhân chồng hàm số
Ở đây chúng ta sẽ không đào sâu chi tiết kiến trúc từng mô hình. Mình chỉ nêu những khác biệt cơ bản. Trong đó với CNN, dữ liệu đầu vào được chia ra xử lý qua một mạng lưới nhân chồng (convolution). Quá trình nhân chồng này sẽ diễn ra nhiều lần để sau cùng chúng ta có được một kết quả chung nhất phù hợp với phần lớn dữ liệu đầu vào. Với NVIDIA, các thế hệ GPU trước Blackwell đều sử dụng mô hình này và nó được áp dụng để tái-xử-lý các frame hình được tạo ra từ ống lệnh đồ hoạ trước đó (DLSS).
Tuy cấu tạo đơn giản và dễ xử lý song CNN có nhược điểm là nó phù hợp với các dữ liệu nhỏ lẻ, cục bộ, không có tính liên kết lâu dài (ví dụ theo thời gian). Đặc trưng này dẫn tới việc khi tái-xử-lý hình ảnh có tốc độ biến đổi cao, mô hình CNN thường cho ra kết quả khá tệ, chi tiết bị bóng mờ, mất nét hoặc nhìn chung là làm “ngứa mắt”. May thay, tới 2017, các nhà nghiên cứu của Google đã trình làng một mô hình AI mới có tên Transformer (hoặc Vision Transformer, ViT). Đây là mô hình NVIDIA đã áp dụng cho Blackwell (RTX 50) dưới tên gọi DLSS 4.
Quảng cáo
So sánh 3 mô hình CNN, RNN và Transformer (Self-Attention)
Trong khi CNN xử lý dữ liệu theo hướng “đồng đều” thì Transformer dùng phương pháp “trọng khối” (attention). Cụ thể dữ liệu đầu vào sẽ được chia ra các token có “trọng số” (weight) khác nhau. Token có trọng số cao hơn sẽ được ưu tiên giữ lại trong quá trình xử lý và ngược lại. Ngoài ra, token có trọng số cao hơn cũng sẽ được giữ lại trong các lần xử lý tiếp theo, giúp cho thông tin liên quan tới nó được “bền lâu” (theo dòng sự kiện). Dĩ nhiên nhược điểm của Transformer là nó ngốn nhiều bộ nhớ cũng như năng lực xử lý hơn, khi cần liên kết nhiều khối dữ liệu hơn.
So sánh chất lượng hình ảnh giữa DLSS 3 vs. DLSS 4
Nhờ vào Transformer, chất lượng hình ảnh tái-xử-lý của DLSS 4 đã thực sự lên một tầm cao mới. Vì dựa vô lượng dữ liệu chất lượng cao (được render từ trước), DLSS 4 mang đến độ rõ nét gần như tương đương với render “truyền thống” (tỷ lệ phân giải 1:1). Đây là điều mà DLSS 3 lẫn FSR 4 không thể có được vì vẫn dựa trên mô hình CNN cũ.
Nguồn: Tinhte.vn