Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Claude sẽ 'làm ô nhiễm' chuỗi cung ứng của Bộ Quốc phòng, một quan chức cấp cao cho biết
Một quan chức cấp cao của Lầu Năm Góc ngày thứ Năm cho biết các mô hình trí tuệ nhân tạo của Anthropic sẽ “làm ô nhiễm” chuỗi cung ứng quân sự.
Phát biểu trên CNBC, Giám đốc Công nghệ Bộ Quốc phòng Emil Michael cho biết các mô hình Claude của startup này có “một sở thích chính sách khác” được tích hợp trong thiết kế của chúng.
Nội dung liên quan
Zoox của Amazon đạt thỏa thuận đầu tiên với Uber cho dịch vụ xe tự lái
Cổ phiếu Oracle tăng mạnh sau báo cáo lợi nhuận vượt kỳ vọng và dự báo doanh thu 90 tỷ USD
Cơ quan này gần đây cho biết đang chỉ định Anthropic là rủi ro trong chuỗi cung ứng, một động thái mà Michael cho rằng nhằm ngăn chặn binh sĩ nhận được vũ khí hoặc thiết bị bảo vệ không hiệu quả. Việc chỉ định này là lần đầu tiên một công ty Mỹ nhận được nhãn này, vốn thường dành cho các đối thủ nước ngoài. Các nhà thầu quốc phòng hiện phải chứng nhận rằng họ không sử dụng Claude cho các công việc liên quan đến Pentagon.
Dù bị đưa vào danh sách đen, một số nhà thầu lớn vẫn tiếp tục sử dụng công nghệ này. Giám đốc điều hành của Palantir, Alex Karp, ngày thứ Năm trên CNBC cho biết công ty của ông vẫn đang sử dụng Claude. Karp lưu ý rằng trong khi chính phủ dự định loại bỏ startup này dần dần, các sản phẩm của Palantir vẫn còn tích hợp với các mô hình trong thời gian này.
Hiện tại, Pentagon đang sử dụng Claude để hỗ trợ các hoạt động quân sự tại Iran. Michael cho biết cơ quan này không thể “rút bỏ ngay lập tức” công nghệ này và đã phát triển một kế hoạch chuyển đổi. Ông so sánh phần mềm này như các hệ thống tích hợp sâu chứ không phải các ứng dụng để bàn đơn giản.
Anthropic đã kiện chính quyền Trump, mô tả các hành động của chính phủ là “chưa từng có và bất hợp pháp.” Đơn kiện của công ty cho rằng việc chỉ định này gây thiệt hại không thể khắc phục và đe dọa hàng trăm triệu đô la hợp đồng. Anthropic thành lập năm 2021 và sử dụng một “hiến pháp” để định hình hành vi và các hướng dẫn đạo đức của AI.
Cựu Tổng thống Donald Trump trước đó đã chỉ trích công ty trên mạng xã hội, gọi nhân viên của họ là “những kẻ điên cánh tả.” Một bản ghi nhớ nội bộ từ Giám đốc Thông tin của Pentagon cho biết việc sử dụng các công cụ này có thể tiếp tục sau kỳ hạn loại bỏ dự kiến sáu tháng nếu công nghệ này được coi là quan trọng đối với an ninh quốc gia và không có lựa chọn thay thế nào phù hợp.