Silicon di chuyển nhanh hơn thép và các trung tâm dữ liệu phải theo kịp

Từ việc chỉ huy một tàu ngầm tấn công nhanh chạy bằng năng lượng hạt nhân đến lãnh đạo các dự án trung tâm dữ liệu quy mô lớn tại AWS, Meta và Oracle, Tony Grayson mang đến một sự kết hợp độc đáo giữa độ chính xác, khả năng phục hồi và chuyên môn kỹ thuật cho cơ sở hạ tầng AI.

Hiện là Chủ tịch kiêm Tổng Giám đốc tại Northstar Federal & Northstar Enterprise & Defense, Grayson (ở trên, bên phải) sẽ trình bày Bài phát biểu quan trọng chính tại Hội nghị Cloud & Datacenter Convention 2025 ở Sydney, xem xét cách tính toán học tăng cường (RL) và AI đại diện đang thúc đẩy sự chuyển đổi sang điện toán phân tán.

W.Media đã có cuộc trò chuyện với ông để thảo luận về ý nghĩa của những phát triển này đối với thiết kế cơ sở hạ tầng, triển khai nhanh chóng, tính bền vững và các yêu cầu trong tương lai đối với các nhà khai thác viễn thông và đám mây.W.Media: Với tư cách là người đã xây dựng và mở rộng quy mô một công ty lên hàng triệu hợp đồng, ông có lời khuyên gì cho các tổ chức đang lên kế hoạch đầu tư cơ sở hạ tầng AI hiện nay? Họ nên cấu trúc những khoản đầu tư này như thế nào để duy trì tính linh hoạt cho các thay đổi, thoái vốn hoặc thay đổi công nghệ trong 3-5 năm tới?

Grayson: Từ kinh nghiệm của tôi tại NorthStar và mở rộng quy mô EdgePoint Systems, tính linh hoạt phải được tích hợp ở mọi lớp để theo kịp tốc độ thay đổi nhanh chóng của AI. Đầu tiên, hãy sử dụng các bản dựng mô-đun, tăng dần thay vì các bản dựng nguyên khối. Các trung tâm dữ liệu mô-đun (MDC) triển khai trong 3–9 tháng với chi phí ~7–9 triệu đô la Mỹ trên mỗi MW (mức trung bình của Hoa Kỳ/Úc), so với 18–24 tháng và 12–15 triệu đô la Mỹ trên mỗi MW đối với quy mô lớn. Điều này tránh việc cung cấp thừa và công suất bị mắc kẹt từ các chu kỳ làm mới phần cứng. Hãy nghĩ về thiết kế của bạn như các khối Lego: chuẩn hóa các thành phần để tùy chỉnh hàng loạt đồng thời đảm bảo khả năng bảo trì.

MDC cũng giúp bỏ qua các chậm trễ về giấy phép từ 6–18 tháng; các bản dựng đúc sẵn có thể cắt giảm thời gian tại chỗ từ 50–70% và tránh các đánh giá môi trường đầy đủ, cho phép cải tạo khu công nghiệp hoặc các địa điểm rìa gần các trạm biến áp để tránh các chậm trễ trong hàng đợi lưới điện như tồn đọng nhiều năm của PJM. Thứ hai, hãy chọn kiến trúc lai/đa đám mây, không phụ thuộc vào nhà cung cấp để tránh bị khóa – phù hợp với NVIDIA, AMD, Groq và các tiêu chuẩn như ONNX. Cân nhắc thuê Opex cho MDC để hỗ trợ thoái vốn hoặc thay đổi.

Thứ ba, hãy dành ngân sách 20–30% cho các công nghệ mới nổi như học tăng cường phân tán (RL) và AI đại diện – RL có thể cắt giảm độ trễ dưới 10 ms và theo McKinsey, AI đại diện có thể đạt 50 tỷ đô la Mỹ vào năm 2030 (CAGR 45%). Sử dụng các khung lập kế hoạch kịch bản để lập bản đồ các kịch bản “điều gì xảy ra nếu” và lập kế hoạch cho khối lượng công việc nặng về suy luận, được dự đoán là 60–80% chi tiêu cho AI vào năm 2030 (254 tỷ đô la Mỹ, CAGR 17,5%). Cuối cùng, hãy liên kết tất cả các khoản đầu tư với ROI – MDC có thể cắt giảm chi phí xây dựng từ 40–60% và tăng tốc doanh thu thông qua triển khai nhanh hơn. Hãy nhớ rằng, chỉ công nghệ thôi thì không tạo ra doanh thu; cơ sở hạ tầng có khả năng thích ứng mới tạo ra doanh thu.W.Media: Với sự nhấn mạnh của ông rằng “silicon di chuyển nhanh hơn thép và bê tông”, các tổ chức nên cân bằng các khoản đầu tư cơ sở hạ tầng dài hạn như thế nào với thực tế là silicon được làm mới sau mỗi 12-24 tháng? Những khung lập kế hoạch nào hoạt động tốt nhất cho nghịch lý này?

Grayson: Cụm từ “silicon di chuyển nhanh hơn thép và bê tông” tóm tắt thách thức lớn nhất trong cơ sở hạ tầng AI. Phần cứng được làm mới sau mỗi 12–24 tháng, nhanh hơn nhiều so với chu kỳ xây dựng trung tâm dữ liệu truyền thống và điều đó có thể khiến bạn mất hàng triệu đô la tài sản bị mắc kẹt nếu bạn không cẩn thận. Điều quan trọng là tách cơ sở hạ tầng của bạn khỏi bất kỳ thế hệ silicon đơn lẻ nào. Điều đó thậm chí còn trở nên quan trọng hơn khi chúng ta bước vào kỷ nguyên Rubin, với mật độ năng lượng tăng từ 800 kW lên 1,5 MW trên mỗi giá đỡ cho các hệ thống Hopper hoặc Grace Blackwell – và những giá đỡ đó có thể nặng gấp đôi so với ngày nay.

Một cách tiếp cận mà tôi đã sử dụng là cái mà tôi gọi là “chu kỳ làm mới mô-đun”, chia cơ sở hạ tầng thành các nhóm có thể được nâng cấp mà không làm gián đoạn toàn bộ trang web. Tại NorthStar, các trung tâm dữ liệu mô-đun của chúng tôi hỗ trợ các giá đỡ từ 30–132 kW và sử dụng hệ thống làm mát bằng chất lỏng tiên tiến, vì vậy chúng tôi có thể đưa silicon mới vào và ra khi cần. Chúng tôi lập kế hoạch trong khoảng thời gian 18–24 tháng nhưng mô hình hóa trong vòng đời năm năm, tính đến khoản tiết kiệm opex 20–30% mà tính mô-đun mang lại. Sử dụng các khung như mô phỏng Monte Carlo để tính toán sự biến động giá silicon và phân tích độ nhạy để tính toán tác động làm mới để điều hướng sự không chắc chắn này.

Bối cảnh cạnh tranh cũng đang thay đổi: trong khi NVIDIA thống trị quá trình đào tạo thông qua CUDA, thì MI400X của AMD đang thách thức trong quá trình suy luận và silicon tùy chỉnh như Groq có thể tối ưu hóa hơn nữa. Đào tạo RL (như trong Grok 4) ưu tiên điện toán phân tán, giảm nhu cầu tập trung.

Chúng tôi tập trung vào GPU ngày nay, nhưng tương lai là kiến trúc phân tách với Compute Express Link (CXL), cho phép CPU và GPU gộp bộ nhớ theo yêu cầu. GPU truyền thống gắn HBM vào mỗi chip, gây ra công suất bị mắc kẹt và chi phí chuyển mạch cao hơn 30%. CXL mang lại hiệu suất trên mỗi watt tốt hơn hơn 30% và cắt giảm tổng chi phí từ 20–30%. Tôi đã thấy MDC chạy bộ tăng tốc được gộp CXL cải thiện thông lượng hơn 25% so với các thiết lập chỉ có GPU, trong khi các khung mở như ONNX giúp tránh bị khóa nhà cung cấp.

Mỗi làn sóng công nghệ – GPU, RL phân tán, lượng tử (có khả năng cần các cơ sở được che chắn chuyên dụng) – đòi hỏi cơ sở hạ tầng khác nhau. Giả định trung tâm dữ liệu cũ về vòng đời khách hàng từ 20 đến 30 năm đã chết. AI di chuyển quá nhanh và bạn phải thiết kế cho rủi ro lỗi thời từ 3 đến 5 năm. Tính mô-đun và các mô hình opex linh hoạt giúp thép và bê tông của bạn đóng vai trò là nền tảng, không phải là lồng.W.Media: Trong một bài viết gần đây mà ông đã viết, ông đã thách thức ngành công nghiệp đặt câu hỏi “bạn sẽ kiếm tiền bằng cách nào?” trước khi xây dựng cơ sở hạ tầng AI khổng lồ. Các tổ chức nên sử dụng các số liệu tài chính và mô hình ROI cụ thể nào khi lập kế hoạch cho các yêu cầu khối lượng công việc AI không thể đoán trước?

Grayson: Thách thức tóm lại là: các mô hình ngôn ngữ vốn dĩ không kiếm tiền được trừ khi bạn là nhà cung cấp dịch vụ đám mây hoặc đám mây mới – suy luận là nơi tạo ra doanh thu. Capex quan trọng, nhưng opex sẽ quyết định tính bền vững. Để lập kế hoạch trong bối cảnh khối lượng công việc không thể đoán trước, bạn cần tập trung vào các số liệu liên kết trực tiếp đến việc tạo ra giá trị.

Các số liệu quan trọng cần theo dõi bao gồm ưu tiên TCO trên mỗi suy luận – mục tiêu giảm 30-70% thông qua silicon tùy chỉnh như Groq LPU, có thể tạo ra doanh thu gấp 50 lần (hãy nghĩ đến 15.500 đô la Mỹ/ngày trên mỗi giá đỡ so với 310 đô la Mỹ/ngày cho các sản phẩm tương đương H100). Theo dõi Hiệu quả sử dụng năng lượng với PUE dưới 1,2 cho MDC so với 1,5+ cho các trang web cũ. Theo dõi capex trên mỗi MW – các bản dựng mô-đun mang lại lợi thế chi phí đáng kể so với các phương pháp truyền thống. Theo dõi rủi ro công suất bị mắc kẹt, có thể đạt 100-500 triệu đô la Mỹ đối với các bản dựng không linh hoạt.

Đừng quên thông lượng suy luận – Groq có thể cung cấp hơn 100.000 mã thông báo/giây so với khoảng 2.000 trên H100 – và hiệu quả năng lượng được đo bằng mã thông báo/giây/kW.

Đối với các mô hình ROI, hãy triển khai phương pháp mà tôi gọi là “Hoàn vốn theo giai đoạn”. Tính toán Tỷ lệ hoàn vốn nội bộ của bạn trong năm năm – bạn muốn 25%+ cho MDC 1MW với GPU NVIDIA B200, có khả năng mang lại 3,4 triệu đô la Mỹ lợi nhuận từ các dịch vụ AI. Sử dụng Giá trị hiện tại ròng để chiết khấu dòng tiền trong tương lai, tính đến CAGR 17,5% dự kiến của thị trường suy luận lên 254 tỷ đô la Mỹ vào năm 2030. Tính đến chi phí cơ hội – việc triển khai mô-đun nhanh hơn có thể giúp bạn tiết kiệm hàng triệu đô la doanh thu bị trì hoãn.

Để ứng phó với sự không chắc chắn, hãy tận dụng mô phỏng Monte Carlo về các thay đổi khối lượng công việc như dự kiến thống trị suy luận 60-80% và biến động giá silicon – tỷ lệ H100 đã giảm từ 4 đô la Mỹ/giờ xuống còn khoảng 0,9 đô la Mỹ/giờ.

ROI dựa trên kịch bản là rất quan trọng: trường hợp cơ sở giả định đào tạo tập trung, trường hợp lạc quan tính đến RL phân tán cắt giảm chi phí 35%, trường hợp bi quan tính đến 20% công suất bị mắc kẹt. Luôn luôn đặt mọi thứ vào nền tảng doanh thu: Năng suất đô la trên mỗi mã thông báo hoặc đô la trên mỗi truy vấn của bạn là bao nhiêu? Chip tùy chỉnh thường mang lại chi phí trên mỗi suy luận tốt hơn từ 10-25 lần, khiến chúng trở thành một hàng rào vững chắc chống lại sự hàng hóa hóa.W.Media: Ông đã ủng hộ mạnh mẽ các trung tâm dữ liệu mô-đun hơn là các phương pháp tiếp cận khuôn viên trường giga truyền thống. Các tiêu chí quyết định chính mà các tổ chức nên sử dụng để xác định khi nào tính mô-đun có ý nghĩa so với khi nào lợi thế kinh tế quy mô ủng hộ cơ sở hạ tầng tập trung, lớn hơn

Grayson: Tính mô-đun vượt trội khi tính linh hoạt lớn hơn lợi thế kinh tế quy mô thô. Thành thật mà nói, tôi hoài nghi rằng quy mô tuyệt đối luôn cần thiết – bộ tăng tốc AI đã tăng gấp đôi PFLOPS cứ sau khoảng sáu tháng, cho thấy khối lượng mã thông báo có thể đạt đến trạng thái ổn định trong bối cảnh khan hiếm dữ liệu, trong khi tính toán RL thúc đẩy phân phối.

Từ góc độ chi phí và rủi ro, tính mô-đun thắng thế với chi phí dưới 10 triệu đô la Mỹ trên mỗi MW với mức tiết kiệm TCO từ 35–60%, tránh được hơn 100 triệu đô la Mỹ tài sản bị mắc kẹt do các thay đổi công nghệ. Cơ sở hạ tầng tập trung hoạt động cho US$/kWh cực thấp ở quy mô trên 100 MW, nhưng mang lại rủi ro trả trước cao hơn. Loại khối lượng công việc cũng quan trọng – suy luận rìa và RL phân tán, như Grok 4, ưu tiên MDC cho độ trễ dưới 10 ms, trong khi tiền đào tạo quy mô lớn vẫn đòi hỏi băng thông và mật độ của quy mô lớn. Khả năng mở rộng cũng đóng một vai trò: chọn bổ sung nhóm tăng dần cho nhu cầu biến động, tập trung cho đào tạo khối lượng lớn, có thể dự đoán được.

Về tính bền vững và chủ quyền, MDC tích hợp năng lượng tái tạo dễ dàng hơn – đạt được hiệu suất PUE vượt trội và CO2 kết hợp ít hơn 40–60% – và cho phép định vị dữ liệu. Tính mô-đun có thể đạt được lượng carbon kết hợp thấp hơn từ 20–30% so với các bản dựng truyền thống thông qua đúc sẵn, vật liệu tái chế và giảm chất thải.

Địa lý thường quyết định, vì vậy hãy chọn tính mô-đun rìa hoặc khu vực cho các ứng dụng nhạy cảm với độ trễ, tập trung cho tính toán hàng loạt ở các khu vực giàu năng lượng. Thông thường, một mô hình kết hợp, với MDC tăng cường quy mô lớn, đạt được sự cân bằng tốt nhất. Các phương pháp tiếp cận mô-đun cũng mang lại lợi thế triển khai thông qua các quy trình cấp phép hợp lý.W.Media: Với việc chip cho thấy tiềm năng doanh thu gấp 50 lần so với GPU truyền thống, các tổ chức nên phòng ngừa rủi ro như thế nào trên các kiến trúc silicon khác nhau (NVIDIA, AMD, Groq, AWS Inferentia) khi “người chiến thắng” vẫn chưa rõ ràng?

Grayson: Khi các chip tùy chỉnh như Groq’s thể hiện lợi thế doanh thu gấp 50 lần và MI300X của AMD đạt được sức hút trong quá trình suy luận, việc phòng ngừa rủi ro là xây dựng tính bất khả tri vào ngăn xếp của bạn. Chỉ triển khai cho các nhu cầu trước mắt, vì việc mua đất và thời gian biểu cấp phép có thể gây tắc nghẽn các thay đổi. Chuẩn hóa thiết kế để bạn có thể nhanh chóng hoán đổi giữa các kiến trúc và đảm bảo bạn có các đường dẫn nâng cấp rõ ràng. Hỗ trợ cả các trang web mới và các trang web khu công nghiệp để có tính linh hoạt. Tại NorthStar, MDC của chúng tôi đáp ứng NVIDIA, AMD, Groq và AWS Inferentia thông qua các giá đỡ linh hoạt 30–132 kW+ và khả năng tương thích ONNX.

Chiến lược làm mới nên phù hợp với chu kỳ 12–18 tháng và MDC cho phép triển khai không có thời gian ngừng hoạt động. Đa dạng hóa quan hệ đối tác để có quyền truy cập vào các bản beta và cơ hội đồng phát triển và theo dõi các thay đổi hệ sinh thái. Sự thống trị CUDA của NVIDIA trong quá trình đào tạo có thể không giữ được trong quá trình suy luận, nơi hiệu quả quan trọng hơn tính tổng quát. Đám mây dành cho nhà phát triển của AMD, ra mắt vào tháng 6 năm 2025, là một ví dụ điển hình – các cải tiến ROCm 7, MI350X mang lại khả năng suy luận tốt hơn gấp 35 lần so với các thế hệ trước vào năm 2025 và MI400X vào năm 2026, cung cấp giá cả cạnh tranh và hệ sinh thái mở cạnh tranh với Đám mây DGX của NVIDIA. Điều này đẩy nhanh các lựa chọn thay thế cho suy luận và có thể giảm TCO bằng cách cung cấp nhiều hơn 40% mã thông báo trên mỗi đô la.W.Media: Với nền tảng tàu ngầm hạt nhân và công việc tư vấn về việc sử dụng SMR và lò phản ứng siêu nhỏ cho khối lượng công việc AI rìa, ông thấy năng lượng hạt nhân đóng vai trò gì trong tương lai của cơ sở hạ tầng trung tâm dữ liệu, đặc biệt là đối với các triển khai AI quan trọng và không có carbon? Các nhà khai thác DC nên xem năng lượng tái tạo như thế nào trong thời gian chờ đợi?

Grayson: Từ vai trò chỉ huy tàu ngầm hạt nhân và tư vấn SMR của tôi, hạt nhân sẽ có tính chuyển đổi đối với cơ sở hạ tầng AI kiên cường, không có carbon, đặc biệt là ở rìa. SMR và lò phản ứng siêu nhỏ có thể cung cấp năng lượng cho MDC vào năm 2035, rất khác so với hoạt động tiếp thị ngoài kia, cung cấp năng lượng cơ bản cho các triển khai chủ quyền, quan trọng. Thực tế mà nói, thời gian biểu khác nhau: Lò phản ứng Gen III+ (với làm mát thụ động) có thể triển khai ngay bây giờ, lò phản ứng siêu nhỏ có thể đạt quy mô vào năm 2027-2028, trong khi Gen IV phải đối mặt với những trở ngại trong phê duyệt thiết kế, thử nghiệm và tìm nguồn cung cấp nhiên liệu.

Đến năm 2035, chúng ta có thể thấy các giá đỡ 10 MW tương đương với 3 GW ngày nay trong PFLOPS, khuếch đại sức hấp dẫn của hạt nhân. Trong thời gian chờ đợi, hãy coi năng lượng tái tạo là một cầu nối quan trọng: tích hợp năng lượng mặt trời/gió cho hơn 40% hỗn hợp năng lượng MDC, được hỗ trợ bởi pin và lưới điện siêu nhỏ để ổn định. Khám phá khí đốt tự nhiên như một bản sao lưu đáng tin cậy; tiềm năng của hydro vẫn còn, mặc dù chậm hơn dự kiến. Con đường kết hợp này đảm bảo các mục tiêu về carbon mà không ảnh hưởng đến thời gian hoạt động. Các số liệu về tính bền vững vượt xa PUE: Để bổ sung cho năng lượng tái tạo, hãy xem xét giảm lượng carbon kết hợp thông qua tính mô-đun (thấp hơn 20-30%) và hiệu quả sử dụng nước – AI có thể yêu cầu 4,2-6,6 tỷ mét khối trên toàn cầu vào năm 2027, nhưng hệ thống làm mát bằng chất lỏng vòng kín trong MDC tái chế 90-95% lượng nước, giải quyết 1-5 lít trên mỗi mức tiêu thụ truy vấn.W.Media: Ông đã đề cập rằng phương pháp tiếp cận học tăng cường phân tán của Grok 4 có thể thay đổi các mô hình triển khai. Các tổ chức nên chuẩn bị như thế nào cho sự thay đổi tiềm năng từ sự phụ thuộc vào quy mô lớn tập trung sang kiến trúc AI tập trung vào rìa, phân tán hơn?

Grayson: Grok 4 đánh dấu một sự thay đổi lớn trong cân bằng đào tạo. Các LLM trước đây tập trung chủ yếu vào tiền đào tạo, chỉ với học tăng cường nhẹ từ phản hồi của con người (RLHF). Grok 4 đã sử dụng tổng cộng tính toán nhiều hơn khoảng 100 lần so với Grok 2, chia đều giữa tiền đào tạo và RL, đồng thời mang lại kết quả hiện đại trên các điểm chuẩn như Humanity’s Last Exam. RLHF cải thiện độ sâu lý luận của mô hình và RL đa tác nhân của Grok 4 – nơi các tác nhân tranh luận về câu trả lời hoặc mô phỏng các đường dẫn lý luận – đã cho thấy hiệu suất mạnh mẽ cho các trường hợp sử dụng độ trễ thấp, tập trung vào rìa.

Không giống như tiền đào tạo, vốn cần các cụm nguyên khối, khối lượng công việc RL song song hơn và chịu được độ trễ. Quy trình làm việc được chia thành ba vai trò: công nhân triển khai (tạo ra đầu ra), nút đánh giá (chấm điểm đầu ra) và nút học (cập nhật tham số). Công nhân triển khai và người đánh giá có thể xử lý độ trễ hàng chục đến hàng trăm mili giây và chạy trên phần cứng cũ hơn hoặc hàng hóa, trong khi các phương pháp mới như GRPO cắt giảm giao tiếp giữa các nút và loại bỏ các mô hình phê bình riêng biệt, giảm TCO từ 10–20%.

Bản demo của INTELLECT-2 cho thấy thiết lập RL tham số 32B giảm thời gian phản hồi 15% và các yêu cầu không thành công 24%. Các mô hình lên đến 10-30B tham số có thể chạy RLHF đầy đủ trên GPU đơn, trong khi ngay cả các mô hình 70B+ cũng có thể phân phối trên các tài nguyên rẻ hơn bằng cách sử dụng các khung như openRLHF, TBA và Ray RLlib.

Để chuẩn bị: đầu tư vào Edge MDC để đánh giá <10ms bằng cách sử dụng các khung như OpenRLHF hoặc GRPO; thử nghiệm khối lượng công việc RL phân tán trên các nhóm khu vực (có khả năng cắt giảm TCO 35%); áp dụng chiến lược kết hợp giữ quy mô lớn cho tiền đào tạo trong khi chuyển RL/suy luận sang rìa để tiết kiệm chủ quyền và chi phí; và xây dựng công cụ với học liên kết và thiết kế không phụ thuộc vào nhà cung cấp để thích ứng nhanh chóng.W.Media: Các nhà khai thác trung tâm dữ liệu Úc có thể rút ra những bài học gì từ cách ngành công nghiệp đang phát triển ở Hoa Kỳ?

Grayson: Các nhà khai thác Úc nên chú ý đến những cạm bẫy của Hoa Kỳ như việc xây dựng quá mức dẫn đến tài sản bị mắc kẹt, thay vào đó chuyển sang các mô hình mô-đun/cận biên để có tính linh hoạt vượt trội. Áp dụng các phương pháp mô-đun để triển khai nhanh chóng, tăng cường tính bền vững thông qua năng lượng tái tạo và tập trung vào RL/suy luận—sử dụng các nhóm độc lập với nhà cung cấp để phòng ngừa sự biến động của silicon. Nhấn mạnh AI chủ quyền thông qua cơ sở hạ tầng biên cục bộ.

Bài học cốt lõi của Hoa Kỳ là trong sự phát triển chóng mặt của AI, hãy ưu tiên tính mô-đun hơn khối lượng lớn – tạo ra các hệ thống phân tán, có khả năng thích ứng để theo kịp silicon và tránh các khối nguyên khối lỗi thời. Tính linh hoạt là lợi thế cuối cùng. Đối với các nhà khai thác Úc, điều này có nghĩa là ưu tiên tuân thủ các quy định của APRA để đảm bảo sự ổn định tài chính và bảo vệ dữ liệu, cùng với các tiêu chuẩn toàn cầu như GDPR cho các hoạt động xuyên biên giới. Trong các thiết lập RL phân tán, hãy kết hợp khả năng tăng cường an ninh mạng—ví dụ: kiến trúc zero-trust và học tập liên kết được mã hóa—để bảo vệ chống lại các mối đe dọa trong môi trường biên, đảm bảo chủ quyền mà không làm giảm hiệu suất.W.Media: Bạn hy vọng những người tham dự sẽ rút ra bài học gì từ Bài phát biểu quan trọng của bạn ở Sydney?

Grayson: Tương lai của cơ sở hạ tầng AI là không thể đoán trước – hãy trau dồi sự nhanh nhẹn để xoay trục nhanh chóng, giảm thiểu chi phí vốn dài hạn trong các triển khai mà sự thay đổi nhanh chóng của thị trường có thể làm xói mòn lợi nhuận. Tính mô-đun không chỉ là một chiến thuật; đó là nguyên tắc để phát triển mạnh mẽ trong bối cảnh bất ổn.Thông tin chi tiết về sự kiện: Trung tâm Hội nghị Quốc tế Sydney, ngày 21 tháng 8 năm 2025, 8:00 sáng–8:30 tối.

Đăng ký tại đây: https://clouddatacenter.events/events/sydney-cloud-datacenter-convention-2025/

 

Publish on W.Media
Author Info:
Picture of Simon Dux
Simon Dux
Share This Article
Related Posts
Other Popular Posts