Tư vấn bán hàng
Hà Nội
Hỗ trợ trực tuyến - Hà Nội
01 . Tư vấn bán hàng
Zalo 0916660041 Ms Dung
Zalo 0916660504 Mr Trung
Zalo 0916789025 Ms Hồng
02 . KH doanh nghiệp, dự án
Zalo 0912270988 Ms Hồng
Zalo 0888048966 Mr.Tuấn
Zalo 0917886988 Mr.Han
03 . Hỗ trợ kỹ thuật
Zalo 0916660502 Mr.Thành
Zalo 0916789025 CSKH
Chúng tôi luôn mang đến giá cả ưu đãi đặc biệt cho các doanh nghiệp, bao gồm cả doanh nghiệp nước ngoài đầu tư trực tiếp (FDI) và các chuỗi cửa hàng bán lẻ. Chúng tôi sẵn sàng hợp tác cùng bạn để tiến tới thành công ! Xem thêm chính sách bán hàng. Xin vui lòng liên hệ với chúng tôi!
VP Hà Nội: Số 41/117 Thái Hà, Phường Trung Liệt, Quận Đống Đa, Thành phố Hà Nội I Thời gian làm việc: Từ 8h-17h30 Thứ 2 đến Thứ 7 hàng tuần
Hồ Chí Minh
Hỗ trợ trực tuyến - Hồ Chí Minh
01 . Tư vấn bán hàng
Zalo 0941581166 Ms Vân
Zalo 0912270988 Mr.Hồng
Zalo 0916660042 Mr.Quốc Anh
02 . KH doanh nghiệp, dự án
Zalo 0912270988 Ms Hồng
Zalo 0917886988 Mr.Hán
03 . Hỗ trợ kỹ thuật
Zalo 0932144273 Mr.Lộc
Zalo 0916660502 CSKH
Chúng tôi luôn mang đến giá cả ưu đãi đặc biệt cho các doanh nghiệp, bao gồm cả doanh nghiệp nước ngoài đầu tư trực tiếp (FDI) và các chuỗi cửa hàng bán lẻ. Chúng tôi sẵn sàng hợp tác cùng bạn để tiến tới thành công ! Xem thêm chính sách bán hàng. Xin vui lòng liên hệ với chúng tôi!
VP HCM: Số 226 Nguyễn Phúc Nguyên Phường 9, Quận 3, Thành phố Hồ Chí Minh I Thời gian làm việc: Từ 8h-17h30 Thứ 2 đến Thứ 6 và sáng thứ 7
Tổng cộng:
(Số lượng: 0 sản phẩm)
0₫
Sản phẩm yêu thích
NVIDIA đã công bố việc hỗ trợ tăng tốc mô hình ngôn ngữ mới Phi-3 Mini của Microsoft thông qua thư viện mã nguồn mở NVIDIA TensorRT-LLM. Được thiết kế để tối ưu hóa suất tính toán của các mô hình ngôn ngữ lớn khi chạy trên GPU NVIDIA từ máy tính cá nhân đến đám mây, NVIDIA TensorRT-LLM mở ra một giai đoạn mới trong việc xử lý dữ liệu ngôn ngữ tự nhiên với hiệu quả vượt trội.
Phi-3 Mini là một phiên bản thu gọn nhưng sở hữu khả năng mạnh mẽ tương đương các mô hình lớn gấp 10 lần. Điểm nổi bật của Phi-3 Mini là nó không chỉ được cấp phép cho mục đích nghiên cứu mà còn cho cả ứng dụng thương mại rộng rãi, đánh dấu bước tiến so với người tiền nhiệm Phi-2 chỉ dành cho nghiên cứu. Các máy trạm sử dụng GPU NVIDIA RTX hoặc máy tính cá nhân với GPU GeForce RTX có thể chạy mô hình trực tiếp tại địa phương thông qua Windows DirectML với ONNX Runtime hoặc TensorRT-LLM.
Mô hình này có 3.8 tỷ tham số và đã được huấn luyện trên 3.3 nghìn tỷ token chỉ trong vòng bảy ngày sử dụng 512 GPU NVIDIA H100 Tensor Core. Phi-3 Mini có hai biến thể: một hỗ trợ 4.000 token và một hỗ trợ 128.000 token, biến thể sau đặc biệt phù hợp cho các tình huống cần xử lý ngữ cảnh dài, cho phép các nhà phát triển sử dụng đến 128.000 token—đơn vị cơ bản của ngôn ngữ mà mô hình xử lý—khi đặt câu hỏi, giúp mô hình đưa ra các phản hồi chính xác hơn.
Các nhà phát triển có thể trải nghiệm Phi-3 Mini với cửa sổ ngữ cảnh 128K tại ai.nvidia.com, nơi mô hình được đóng gói dưới dạng NVIDIA NIM, một dịch vụ vi mô với giao diện lập trình ứng dụng chuẩn có thể được triển khai mọi nơi.
Các nhà phát triển làm việc với robot tự hành và thiết bị nhúng có thể học cách tạo và triển khai AI sinh sản thông qua các hướng dẫn do cộng đồng điều hành, như trên Jetson AI Lab, và triển khai Phi-3 trên NVIDIA Jetson.
Với chỉ 3.8 tỷ tham số, mô hình Phi-3 Mini đủ nhỏ gọn để chạy hiệu quả trên các thiết bị cạnh. Các tham số này như các núm vặn, trong bộ nhớ, đã được điều chỉnh chính xác trong quá trình huấn luyện mô hình để mô hình có thể phản ứng chính xác với các đầu vào được đưa ra.
Phi-3 có thể hỗ trợ trong các tình huống hạn chế về chi phí và nguồn lực, đặc biệt là cho các nhiệm vụ đơn giản. Mô hình có thể vượt trội hơn so với một số mô hình lớn hơn trên các tiêu chuẩn ngôn ngữ chính trong khi vẫn đáp ứng yêu cầu về độ trễ.
TensorRT-LLM sẽ hỗ trợ cửa sổ ngữ cảnh dài của Phi-3 Mini và sử dụng nhiều cải tiến và nhân như LongRoPE, FP8 và đóng gói trong lúc thực hiện, giúp cải thiện thông lượng suy luận và độ trễ. Các triển khai TensorRT-LLM sẽ sớm có mặt trong thư mục ví dụ trên GitHub, nơi các nhà phát triển có thể chuyển đổi sang định dạng kiểm tra TensorRT-LLM, được tối ưu hóa cho suy luận và có thể triển khai dễ dàng với NVIDIA Triton Inference Server.
NVIDIA là một thành viên tích cực trong cộng đồng mã nguồn mở và đã phát hành hơn 500 dự án theo các giấy phép mã nguồn mở. Công ty đã đóng góp cho nhiều dự án bên ngoài như JAX, Kubernetes, OpenUSD, PyTorch và nhân Linux, đồng thời hỗ trợ một loạt các tổ chức và cơ quan tiêu chuẩn mã nguồn mở.
Thông tin mới nhất hôm nay mở rộng sự hợp tác lâu dài giữa NVIDIA và Microsoft, đã mở đường cho các đổi mới bao gồm tăng tốc DirectML, đám mây Azure, nghiên cứu AI sinh sản, và các lĩnh vực y tế và khoa học sức khỏe.
ĐỒNG HÀNH PHÁT TRIỂN CÙNG DOANH NGHIỆP
CUNG CẤP HƠN 10.000+ DỰ ÁN TOÀN QUỐC
GIẢI PHÁP ĐA DẠNG CHO NHIỀU LĨNH VỰC
Để được tư vấn hoặc hỗ trợ tốt nhất, bạn vui lòng để lại thông tin cần thiết bằng cách điền vào form dưới đây:
Dịch vụ quan tâm
Thêm sản phẩm vào giỏ hàng thành công!