Chmura w Chmurze: Co nowego w Google Cloud w lutym

Chmura w Chmurze: Co nowego w Google Cloud w lutym

Sztuczna Inteligencja na Pierwszym Planie z Ważnymi Postępami

Luty był znaczącym miesiącem dla inicjatyw Google Cloud w zakresie AI, naznaczonym silną obecnością na AI Impact Summit w Indiach oraz wydaniem kilku potężnych narzędzi i ulepszeń AI. Szczyt podkreślił zaangażowanie Google w wykorzystanie AI do rozwiązywania rzeczywistych problemów, prezentując nowe partnerstwa i inwestycje mające na celu rozwój nauki, edukacji i skalowalnych rozwiązań AI. Kluczowe punkty obejmują wydanie Nano Banana 2, które łączy wysokiej jakości generowanie obrazów z imponującą szybkością, czyniąc zaawansowane tworzenie wizualne bardziej dostępnym dla programistów i użytkowników w produktach takich jak aplikacja Gemini i wyszukiwarka Google. Ulepszenia SynthID nadal pomagają w identyfikacji treści generowanych przez AI.

Poza generowaniem obrazów, Google zaprezentowało Lyria 3, swoje najbardziej zaawansowane narzędzie do tworzenia muzyki, umożliwiające użytkownikom generowanie niestandardowej muzyki w aplikacji Gemini za pomocą opisowych podpowiedzi, a nawet niestandardowych okładek. Integracja ProducerAI z Google Labs dodatkowo poszerza możliwości kreatywne w produkcji muzyki. Dla programistów i profesjonalistów kreatywnych, Flow teraz integruje najlepsze możliwości AI do generowania, edycji i animowania obrazów i filmów w jednym, usprawnionym obszarze roboczym, upraszczając przepływy pracy związane z zarządzaniem zasobami i tworzeniem.

Wspieranie Odkryć Naukowych i Analizy Wydajności

Potencjał AI Google Cloud rozszerzył się na złożone przedsięwzięcia naukowe wraz z wydaniem ulepszonego Gemini 3 Deep Think. Ta ulepszona wersja jest specjalnie zaprojektowana do radzenia sobie ze złożonymi wyzwaniami danych, z jakimi boryka się nauka i inżynieria, wykraczając poza teoretyczne koncepcje, aby dostarczyć praktyczne, możliwe do zastosowania wyniki dla problemów technicznych. Dostępny dla subskrybentów Google AI Ultra w aplikacji Gemini i poprzez Gemini API w ramach wczesnego dostępu, Deep Think obiecuje przyspieszyć badania i rozwój. W dziedzinie sportu, narzędzie do analizy wideo AI Google Cloud, opracowane we współpracy z Google DeepMind, zapewniło sportowcom z Team USA i U.S. Ski & Snowboard przewagę konkurencyjną. Narzędzie to analizuje ruchy sportowców z wideo 2D, nawet z grubymi ubraniami, oferując niemalże w czasie rzeczywistym informacje zwrotne w celu optymalizacji wydajności przed Zimowymi Igrzyskami Olimpijskimi.

Ulepszone Narzędzia Deweloperskie i Infrastruktura

Luty przyniósł również znaczące aktualizacje dla programistów i zarządzania infrastrukturą. Ogłoszono Public Preview integracji metadanych Datastream z Knowledge Catalog, oferując ujednolicony widok zasobów Datastream, takich jak Strumienie i Profile Połączeń. Ta integracja usprawnia możliwość wyszukiwania i zarządzania, pozwalając użytkownikom na przeszukiwanie zasobów Datastream obok tabel BigQuery. Dla tych, którzy modernizują swoją infrastrukturę, opublikowano przewodnik dotyczący aktualizacji Apigee OPDK do wersji v4.53 z modernizacją systemu operacyjnego, szczegółowo opisując stabilne przejście bez przestojów. Ponadto, ogólna dostępność pul roboczych Cloud Run i otwarcie kodu Cloud Run External Metrics Autoscaler (CREMA) umożliwiają skalowanie serwerless AI na dużą skalę, zapewniając efektywne skalowanie z uwzględnieniem kolejek dla obciążeń niebędących HTTP.

Usprawnione Zarządzanie API i Przetwarzanie Danych

Google Cloud upraszcza zarządzanie API dzięki ogólnej dostępności natywnego wsparcia OpenAPI v3 (OASv3) dla API Gateway i Cloud Endpoints. Eliminuje to potrzebę obniżania wersji nowoczesnych specyfikacji API i pozwala na bezpośrednie definiowanie i egzekwowanie polityk, w tym telemetrii, limitów i bezpieczeństwa, przy użyciu rozszerzeń specyficznych dla Google w plikach OASv3. Zapewnia to lepsze bezpieczeństwo projektowe i płynną integrację z szerszym ekosystemem programistycznym. W zarządzaniu danymi, noty wydawnicze podkreślają ogólną dostępność serwera Cloud Logging API MCP, umożliwiając aplikacjom AI interakcję z wpisami dziennika. Dodatkowo, wsparcie dla protokołu Model Context Protocol (MCP) w Database Center jest teraz ogólnie dostępne, umożliwiając aplikacjom AI, takim jak Gemini CLI, łączenie się z Database Center w celu przeglądów stanu floty, audytów inwentaryzacji i kontroli bezpieczeństwa.

Ulepszenia w Obliczeniach i Przechowywaniu

W zakresie zasobów obliczeniowych, luty przyniósł podgląd maszyn wirtualnych A4X opartych na NVIDIA GB200 NVL72, oferujących wysoką wydajność i efektywność dla modeli wnioskowania AI nowej generacji, pozycjonując Google Cloud jako lidera w dostarczaniu zaawansowanego sprzętu AI. W obszarze przechowywania danych, Google Kubernetes Engine (GKE) wprowadziło Dynamiczne Domyślne Klasy Przechowywania. Ta funkcja upraszcza zarządzanie przechowywaniem danych w klastrach maszyn wirtualnych o różnych generacjach, automatycznie wybierając odpowiednie przechowywanie (Persistent Disk lub Hyperdisk) w zależności od kompatybilności sprzętu węzła. Ta abstrakcja zmniejsza obciążenie operacyjne i zapewnia optymalną wydajność oraz efektywność kosztową bez skomplikowanych reguł planowania.

Ulepszenia Interfejsu Użytkownika i Bezpieczeństwa

Ulepszając interfejs użytkownika w konsoli Google Cloud, tryb ciemny jest teraz ogólnie dostępny. Ta funkcja zapewnia nowoczesne, wygodne i produktywne środowisko, szczególnie przy dłuższym użytkowaniu lub w warunkach słabego oświetlenia, z opcjami automatycznej lub ręcznej aktywacji. Bezpieczeństwo i tożsamość również odnotowały postępy, wraz z podglądem kwantowo-odpornych podpisów cyfrowych w Cloud Key Management Service (Cloud KMS). Jest to zgodne z nowymi standardami PQC NIST, pomagając programistom wdrażać kryptografię odporną na kwanty, aby chronić się przed przyszłymi zagrożeniami związanymi z komputerami kwantowymi. Trwające wsparcie dla starszej infrastruktury Google Security Operations SIEM zakończy się 30 kwietnia 2027 r., zachęcając do migracji do Google Cloud w celu poprawy niezawodności i bezpieczeństwa.

Ciągła Ewolucja Generatywnych Modeli AI

Ewolucja generatywnych modeli AI postępowała dzięki udostępnieniu w wersji preview ulepszeń. Gemini 3.1 Flash-Lite stał się dostępny dla przedsiębiorstw za pośrednictwem Vertex AI i dla programistów za pośrednictwem Gemini API, oferując ulepszone możliwości generowania obrazów. Model 3.1 Pro, opisany jako zauważalnie inteligentniejszy i bardziej zdolny do rozwiązywania złożonych problemów, również rozpoczął wdrażanie w wersji preview za pośrednictwem Vertex AI i Gemini Enterprise, wspierając firmy w przyszłości agentów. Ponadto, BigQuery ML obsługuje teraz generatywne modele AI typu open-source z Vertex AI Model Garden, w tym te z Hugging Face, rozszerzając wybór modeli dla zadań opartych na SQL, takich jak analiza sentymentu i generowanie tekstu. Ta szeroka integracja najnowocześniejszych rozwiązań AI w różnych usługach Google Cloud umacnia jego pozycję jako lidera w inteligentnych rozwiązaniach chmurowych.