Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Giải mã bài điều tra chuyên sâu của The New Yorker: Vì sao người trong nội bộ OpenAI lại cho rằng Altman không đáng tin?
原文作者:小饼,深潮 TechFlow
2023 年秋天,OpenAI 首席科学家 Ilya Sutskever 坐在电脑前,完成了一份 70 页的文件。
这份文件整理自 Slack 消息记录、HR 沟通档案和内部会议纪要,只为回答一个问题:Sam Altman,这个掌管着可能是人类历史上最危险技术的人,到底能不能被信任?
Sutskever 给出的答案,写在文件第一页的第一行,列表标题是"Sam 表现出一贯的行为模式……"
第一条:撒谎。
两年半后的今天,调查记者 Ronan Farrow和 Andrew Marantz 在《纽约客》发表了一篇超长调查报道。采访超过 100 位当事人,拿到了此前从未公开的内部备忘录,还有 Anthropic 创始人 Dario Amodei在 OpenAI 时期留下的 200 多页私人笔记。这些文件拼出来的故事,比 2023 年那场"宫斗"难看得多:OpenAI 怎样从一家为人类安全而生的非营利组织,一步步变成商业机器,几乎每一道安全护栏,都是被同一个人亲手拆掉的。
Amodei 在笔记中的结论更直白:“OpenAI 的 vấn đề chính là Sam 本人。”
Cài đặt “tội nguyên” của OpenAI
Để hiểu được tầm nặng của bài báo này, trước hết cần làm rõ OpenAI đặc biệt đến mức nào.
Năm 2015, Altman và một nhóm tinh hoa tại Thung lũng Silicon đã làm một việc gần như chưa từng có trong lịch sử thương mại: dùng một tổ chức phi lợi nhuận để phát triển một công nghệ có thể là mạnh nhất trong lịch sử loài người. Nhiệm vụ của ban giám đốc được viết rất rõ ràng: ưu tiên an toàn hơn thành công của công ty, thậm chí còn ưu tiên hơn cả sự tồn tại của công ty. Nói thẳng ra, nếu một ngày AI của OpenAI trở nên nguy hiểm, ban giám đốc có nghĩa vụ tự tay đóng công ty lại.
Toàn bộ kiến trúc đặt cược vào một giả định: người nắm giữ AGI phải là một người cực kỳ trung thực.
Nếu đặt cược sai thì sao?
Quả bom nòng cốt của bản tin chính là tài liệu 70 trang đó. Sutskever không chơi chính trị văn phòng; ông là một trong những nhà khoa học AI hàng đầu trên thế giới. Nhưng đến năm 2023, ông ngày càng tin chắc vào một điều: Altman liên tục nói dối các lãnh đạo và ban giám đốc.
Một ví dụ cụ thể: vào tháng 12 năm 2022, Altman đảm bảo tại một cuộc họp ban giám đốc rằng nhiều tính năng của GPT-4 sắp được phát hành đã vượt qua việc thẩm định an toàn. Thành viên ban giám đốc Toner yêu cầu xem hồ sơ phê duyệt, và kết quả phát hiện rằng hai trong số những tính năng gây tranh cãi nhất (fine-tuning tùy chỉnh do người dùng và triển khai trợ lý cá nhân) thực ra không hề được chấp thuận trên bảng điều khiển an toàn.
Chuyện còn phi lý hơn xảy ra ở Ấn Độ. Một nhân viên tố cáo với một thành viên khác của ban giám đốc về “lần vi phạm đó”: Microsoft đã không hoàn tất thẩm định an toàn cần thiết, nhưng lại phát hành sớm phiên bản đầu của ChatGPT tại Ấn Độ.
Sutskever cũng ghi lại trong biên bản thêm một việc: Altman từng nói với cựu CTO Mira Murati rằng quy trình phê duyệt an toàn không quan trọng lắm, vì tổng cố vấn pháp lý của công ty đã đồng ý. Murati chạy đi xác nhận với tổng cố vấn pháp lý, và phía đó đáp: “Tôi không biết Sam đã rút ra ấn tượng đó từ đâu.”
Bản ghi nhớ riêng 200 trang của Amodei
Tài liệu của Sutskever giống như một bản cáo trạng của công tố viên. Những ghi chú hơn 200 trang mà Amodei để lại thậm chí giống một cuốn nhật ký do một nhân chứng viết ngay tại hiện trường vụ án.
Trong những năm Amodei làm phụ trách an toàn tại OpenAI, ông tận mắt chứng kiến công ty từng bước lùi lại trước áp lực kinh doanh. Trong các ghi chú, ông ghi lại một chi tiết then chốt của thương vụ đầu tư của Microsoft vào năm 2019: ông từng nhét vào điều lệ OpenAI một điều khoản về “hợp nhất và hỗ trợ” (một ý là, nếu có công ty khác tìm được con đường AGI an toàn hơn, OpenAI phải dừng cạnh tranh và chuyển sang hỗ trợ công ty đó). Đây là biện pháp bảo đảm an toàn ông coi trọng nhất trong toàn bộ thương vụ.
Khi giao dịch sắp được ký, Amodei phát hiện ra một điều: Microsoft nắm quyền phủ quyết đối với điều khoản đó. Ý nghĩa là gì? Dù thật sự có một ngày đối thủ cạnh tranh nào đó tìm được đường đi tốt hơn, Microsoft chỉ cần một câu là có thể chặn đứng nghĩa vụ hỗ trợ của OpenAI. Điều khoản vẫn còn trên giấy, nhưng từ ngày ký thì đã trở thành giấy vụn.
Amodei sau đó rời OpenAI và thành lập Anthropic. Cuộc cạnh tranh giữa hai công ty, ở tầng nền, là sự bất đồng mang tính căn bản về việc “AI nên được phát triển như thế nào”.
Cam kết 20% năng lực tính toán đã biến mất
Trong bài báo có một chi tiết khiến đọc xong thấy lạnh sống lưng, liên quan đến “đội siêu căn chỉnh” của OpenAI.
Vào khoảng giữa năm 2023, Altman đã liên hệ qua email với một nghiên cứu sinh tiến sĩ tại Berkeley về “căn chỉnh mang tính lừa dối” (AI giả vờ ngoan trong bài test, nhưng sau khi triển khai thì làm theo “chiêu” của nó). Ông cho biết mình đặc biệt lo ngại về vấn đề này, đồng thời đang cân nhắc thiết lập một giải thưởng nghiên cứu toàn cầu trị giá 1 tỷ USD. Nghiên cứu sinh được khích lệ rất nhiều, xin nghỉ học, và gia nhập OpenAI.
Sau đó Altman đổi ý: không làm giải thưởng từ bên ngoài nữa, mà thành lập “đội siêu căn chỉnh” ngay trong công ty. Công ty công bố rầm rộ rằng họ sẽ phân bổ “20% năng lực tính toán hiện có” cho đội này, với giá trị tiềm năng vượt quá 1Bỷ USD. Ngôn từ trong thông báo cực kỳ nghiêm túc: nếu vấn đề căn chỉnh không được giải quyết, AGI có thể dẫn đến “tước đoạt quyền lực của con người, thậm chí là diệt vong của loài người”.
Jan Leike được bổ nhiệm làm người dẫn dắt đội này sau đó nói với phóng viên rằng, bản thân cam kết đó đã là một công cụ “giữ chân nhân tài” rất hiệu quả.
Còn thực tế thì sao? Bốn người làm việc trong đội này hoặc tiếp xúc chặt chẽ với đội này cho biết rằng, thực tế số năng lực tính toán được phân bổ chỉ bằng 1% đến 2% tổng năng lực tính toán của công ty, và còn là phần cứng cũ kỹ nhất. Đội này sau đó bị giải tán, nhiệm vụ chưa hoàn thành.
Khi phóng viên yêu cầu phỏng vấn những người phụ trách nghiên cứu “an toàn tồn tại” của OpenAI, phản ứng của bộ phận PR công ty lại khiến người ta vừa buồn cười vừa tức: “Đó không phải là một… thứ thực sự tồn tại.”
Bản thân Altman thì lại thản nhiên. Ông nói với phóng viên rằng “trực giác của mình không hợp lắm với nhiều thứ liên quan đến an toàn AI truyền thống”, và OpenAI vẫn sẽ làm “các dự án an toàn, hoặc ít nhất là những dự án dính dáng đến an toàn.”
CFO bị gạt ra bên lề và IPO sắp tới
Bài báo của《纽约客》chỉ là một nửa tin xấu trong ngày hôm đó. Cùng ngày, The Information tung ra một tin tức bom tấn khác: CFO của OpenAI Sarah Friar và Altman đã xảy ra bất đồng nghiêm trọng.
Friar nói riêng với đồng nghiệp rằng bà cho rằng OpenAI vẫn chưa sẵn sàng để lên sàn trong năm nay. Có hai lý do: khối lượng công việc mang tính thủ tục và tổ chức cần hoàn tất quá lớn, và rủi ro tài chính từ khoản chi cho năng lực tính toán 5 năm 600Bỷ USD mà Altman đã cam kết là quá cao. Bà thậm chí không chắc doanh thu của OpenAI có chống đỡ được các lời hứa đó hay không.
Nhưng Altman muốn lao vào IPO ngay trong quý IV năm nay.
Điều còn bất hợp lý hơn nữa là Friar không còn báo cáo trực tiếp cho Altman nữa. Từ tháng 8 năm 2025, bà chuyển sang báo cáo cho Fidji Simo (CEO mảng ứng dụng của OpenAI). Và Simo tuần trước vừa xin nghỉ ốm vì lý do sức khỏe. Bạn tự cân nhắc tình huống này: một công ty đang lao vào IPO, CEO và CFO có bất đồng căn bản, CFO không báo cáo cho CEO, và cấp trên của CFO còn đang nghỉ.
Ngay cả các lãnh đạo cấp cao trong nội bộ Microsoft cũng không chịu nổi, nói rằng Altman “bóp méo sự thật, thất hứa, và liên tục phá vỡ các thỏa thuận đã đạt được.” Một lãnh đạo cấp cao của Microsoft thậm chí nói một câu như thế này: “Tôi nghĩ cuối cùng anh ta có một xác suất nhất định sẽ bị người ta nhớ đến như một kẻ lừa đảo tầm cỡ Bernie Madoff hoặc SBF.”
Bức chân dung “kẻ hai mặt” của Altman
Một cựu thành viên ban giám đốc OpenAI mô tả với phóng viên rằng có hai đặc điểm trên người Altman. Đoạn này có thể là phác họa nhân vật nặng tay nhất trong cả bài.
Vị giám đốc đó nói rằng Altman có một tổ hợp đặc điểm cực kỳ hiếm: mỗi lần tương tác trực tiếp, ông luôn khao khát mạnh mẽ được làm hài lòng người đối diện và được họ thích. Đồng thời, ông lại có một thái độ thờ ơ gần như bệnh lý đối với hậu quả mà việc lừa dối người khác có thể gây ra.
Hai đặc điểm cùng xuất hiện ở một người là cực kỳ hiếm. Nhưng đối với một kẻ đi bán hàng, đó lại là năng khiếu hoàn hảo nhất.
Bài báo có một ẩn dụ nói rất hay: Jobs nổi tiếng với “lực trường làm méo hiện thực”; ông có thể khiến cả thế giới tin vào tầm nhìn của mình. Nhưng ngay cả Jobs cũng chưa từng nói với khách hàng rằng “Nếu anh không mua MP3 của tôi, người anh yêu sẽ chết.”
Altman đã từng nói những câu tương tự, về AI.
Vấn đề đạo đức của một CEO—vì sao lại là rủi ro của tất cả mọi người
Nếu Altman chỉ là CEO của một công ty công nghệ thông thường, thì những cáo buộc này chẳng qua cũng chỉ là một mẩu chuyện bàn tán thương mại hấp dẫn. Nhưng OpenAI thì không bình thường.
Theo chính lời của họ, họ đang phát triển một công nghệ có thể là mạnh nhất trong lịch sử loài người. Có thể tái hình dung nền kinh tế toàn cầu và thị trường lao động (chính OpenAI vừa phát hành một bản chính sách bạch thư về việc AI dẫn đến vấn đề mất việc), và cũng có thể được dùng để chế tạo vũ khí sinh học quy mô lớn hoặc tiến hành các cuộc tấn công mạng.
Tất cả các hàng rào an toàn đã chỉ còn trên danh nghĩa. Sứ mệnh phi lợi nhuận của người sáng lập nhường chỗ cho cuộc đua IPO. Cựu trưởng khoa học và cựu phụ trách an toàn đều xác định CEO “không đáng tin”. Đối tác thì ví CEO như SBF. Trong hoàn cảnh như vậy, CEO này dựa vào lý do gì để đơn phương quyết định khi nào phát hành một mô hình AI có thể thay đổi vận mệnh nhân loại?
Gary Marcus (giáo sư AI tại Đại học New York, người ủng hộ lâu năm cho an toàn AI) sau khi đọc bài báo đã viết một câu: nếu một mô hình OpenAI trong tương lai có thể tạo ra vũ khí sinh học quy mô lớn hoặc tiến hành các cuộc tấn công mạng thảm họa, bạn có thật sự yên tâm khi để Altman một mình quyết định việc có phát hành hay không?
Phản hồi của OpenAI với《纽约客》thì lại ngắn gọn: “Phần lớn nội dung của bài viết đang lôi lại các sự kiện đã được đưa tin trước đó, thông qua cách nói ẩn danh và các giai thoại có chọn lọc; nguồn tin rõ ràng mang mục đích cá nhân.”
Cách phản hồi đúng kiểu Altman: không phản hồi các cáo buộc cụ thể, không phủ nhận tính xác thực của các bản ghi nhớ, chỉ chất vấn động cơ.
Trên cái xác của phi lợi nhuận, mọc lên một cây tiền
Mười năm của OpenAI, nếu viết thành một dàn ý câu chuyện thì sẽ như thế này:
Một nhóm lý tưởng gia lo ngại rủi ro của AI đã tạo ra một tổ chức phi lợi nhuận định hướng sứ mệnh. Tổ chức đã đạt được những đột phá công nghệ phi thường. Đột phá thu hút một lượng vốn khổng lồ. Vốn cần có lợi nhuận. Sứ mệnh bắt đầu nhường đường. Đội an toàn giải tán. Những người chất vấn bị thanh lọc. Cấu trúc phi lợi nhuận chuyển thành một thực thể vì lợi nhuận. Trước đây ban giám đốc có quyền đóng công ty, thì giờ đây đã ngồi đầy các đồng minh của CEO. Trước đây công ty từng hứa sẽ dành 20% năng lực tính toán để bảo vệ an toàn cho con người, nay bộ phận PR lại nói rằng “đó không phải là một thứ thực sự tồn tại”.
Nhân vật chính của câu chuyện—hơn một trăm người trong cuộc—đều dán cho anh ta cùng một nhãn: “Không bị chân lý ràng buộc.”
Anh ta đang chuẩn bị đưa công ty này IPO, với định giá vượt quá 850B USD.
Thông tin trong bài viết được tổng hợp từ các báo cáo công khai của nhiều phương tiện truyền thông như《纽约客》, Semafor, Tech Brew, Gizmodo, Business Insider, The Information.