Résultats de la recherche pour "SEA"
2026-04-30
21:22

Stable Sea intègre le fonds de trésorerie tokenisé de WisdomTree, offrant 857,64 millions de dollars de WTGXX avec un rendement de 3,43 % le 29 avril

Le 29 avril, la plateforme de gestion de stablecoins Stable Sea a intégré le fonds monétaire tokenisé du Trésor américain de WisdomTree (WTGXX) à sa plateforme, permettant aux clients institutionnels de déployer leur trésorerie opérationnelle inutilisée dans des titres gouvernementaux générateurs de rendement via une infrastructure blockchain. Au 28 avril, WTGXX
Plus
12:16

Stable Sea intègre le fonds de marché monétaire tokenisé de WisdomTree WTGXX à un rendement de 3,5 %

Selon The Block, la plateforme de gestion de stablecoins Stable Sea s’est associée au gestionnaire d’actifs WisdomTree pour intégrer directement le fonds de marché monétaire tokenisé WTGXX dans sa plateforme de paiement d’entreprise et de gestion de trésorerie. Les utilisateurs de Stable Sea peuvent désormais convertir des soldes de stablecoins inutilisés en WTGXX
Plus
22:30
1

Une plateforme de trading NFT repousse le lancement du token SEA, le plan initial de mise en ligne au Q1 est reporté

Une plateforme d'échange d'NFT a annoncé un report de son plan d'émission du jeton SEA. Le PDG Devin Finzer a déclaré que l'événement de génération de jetons prévu au premier trimestre 2026 serait reporté, la date exacte n'ayant pas encore été communiquée. Ce report est dû aux conditions difficiles du marché des cryptomonnaies, l'équipe souhaitant s'assurer que tous les préparatifs sont complètement en place avant le lancement de l'émission.
Plus
09:59

Le projet national d'IA de Singapour abandonne Meta et se tourne vers le modèle Qwen d'Alibaba.

PANews 25 novembre, selon le Shanghai Securities News, l'Autorité de l'intelligence artificielle de Singapour (AISG) a abandonné le modèle Meta Llama dans son dernier projet de modèle linguistique pour l'Asie du Sud-Est, optant pour l'architecture Qwen d'Alibaba. À ce jour, le nombre de téléchargements mondiaux de la série Qwen a dépassé 600 millions. Selon les informations, le "Qwen-SEA-LION-v4" publié par l'AISG le 25 novembre se classe au premier rang du classement des capacités linguistiques en Asie du Sud-Est. Auparavant, les modèles open source représentés par la série Llama de Meta ont montré de mauvaises performances dans le traitement des langues régionales telles que l'indonésien, le thaï et le malais, ce qui a gravement entravé l'efficacité et la performance du développement des applications AI localisées.
Plus