Firma Snowflake ogłosiła na dorocznej konferencji użytkowników Snowflake Summit 2024 innowacje i ulepszenia Snowflake Cortex AI, które odblokowują kolejną falę korporacyjnej sztucznej inteligencji dla klientów dzięki łatwym, wydajnym i zaufanym sposobom tworzenia aplikacji opartych na AI.

 REKLAMA 
 Wdrażasz KSeF w firmie 
 
Zmiany umożliwiają organizacjom tworzenie chatbotów w ciągu kilku minut, dzięki czemu mogą one komunikować się bezpośrednio z danymi przedsiębiorstwa i szybciej uzyskiwać potrzebne odpowiedzi. Ponadto Snowflake jeszcze bardziej demokratyzuje sposób, w jaki każdy użytkownik może dostosować sztuczną inteligencję do konkretnych przypadków użycia poprzez nowy interaktywny interfejs bez kodu, dostęp do wiodących w branży dużych modeli językowych (LLM) i bezserwerowe dostrajanie. Snowflake przyspiesza również ścieżkę operacjonalizacji modeli dzięki zintegrowanemu doświadczeniu uczenia maszynowego (ML) za pośrednictwem Snowflake ML, umożliwiając programistom tworzenie, odkrywanie i zarządzanie modelami oraz funkcjami w całym cyklu życia ML. Ujednolicona platforma Snowflake do generatywnej sztucznej inteligencji i uczenia maszynowego pozwala każdemu biznesowi wydobywać większą wartość z danych, jednocześnie zapewniając pełne bezpieczeństwo, zarządzanie i kontrolę w celu dostarczania odpowiedzialnej, zaufanej sztucznej inteligencji na dużą skalę.

Snowflake znajduje się w epicentrum korporacyjnej sztucznej inteligencji, oddając łatwą w użyciu, wydajną i godną zaufania sztuczną inteligencję w ręce każdego użytkownika, aby mógł on rozwiązywać najbardziej złożone wyzwania biznesowe, bez kompromisów w obszarze bezpieczeństwa i zarządzania – mówi Baris Gultekin, Head of AI w Snowflake. – Nasze najnowsze osiągnięcia w Snowflake Cortex AI usuwają bariery wejścia, dzięki czemu wszystkie organizacje mogą wykorzystać sztuczną inteligencję do tworzenia potężnych aplikacji AI na dużą skalę i odblokować wyjątkowe zróżnicowanie dzięki danym przedsiębiorstwa w Chmurze Danych AI.


Zapewnij całemu przedsiębiorstwu możliwość komunikowania się z danymi dzięki nowym funkcjom czatu

Napędzane przez LLM-y chatboty to efektywny sposób, dzięki któremu każdy użytkownik może zadawać pytania w obszarach obejmujących dane przedsiębiorstwa za pomocą języka naturalnego, odblokowując wgląd w informacje potrzebne organizacjom do podejmowania krytycznych decyzji ze zwiększoną szybkością i wydajnością. Snowflake przedstawia dwie nowe funkcje czatu, Snowflake Cortex Analyst (wkrótce public preview) i Snowflake Cortex Search (wkrótce public preview), umożliwiające użytkownikom tworzenie chatbotów w ciągu kilku minut w oparciu o ich ustrukturyzowane i nieustrukturyzowane dane, bez złożoności operacyjnej. Cortex Analyst, zbudowany na podstawie modeli Meta Llama 3 i Mistral Large, umożliwia firmom bezpieczne tworzenie aplikacji w oparciu o poddane analizie dane w Snowflake. Ponadto Cortex Search wykorzystuje najnowocześniejszą technologię wyszukiwania i klasyfikacji firmy Neeva (przejętej przez Snowflake w maju 2023 r.) wraz z Snowflake Arctic embed, dzięki czemu użytkownicy mogą tworzyć aplikacje w oparciu o dokumenty i inne zbiory danych tekstowych poprzez wyszukiwanie hybrydowe klasy korporacyjnej – a więc połączenie zarówno wektora, jak i tekstu – jako usługę.

Bezpieczeństwo danych i pełne zarządzanie nimi mają dla Zoom ogromne znaczenie, gdy wykorzystujemy sztuczną inteligencję do analityki korporacyjnej. Polegamy na Chmurze Danych Snowflake, aby wspierać nasze wewnętrzne funkcje biznesowe i rozwijać spostrzeżenia klientów, ponieważ nadal demokratyzujemy sztuczną inteligencję w całej naszej organizacji – mówi Awinash Sinha, Corporate CIO w Zoom. – Łącząc moc Snowflake Cortex AI i Streamlit, byliśmy w stanie stworzyć aplikacje wykorzystujące wstępnie wytrenowane duże modele językowe w ciągu zaledwie kilku dni. Umożliwiają one naszym zespołom korzystanie ze sztucznej inteligencji w celu szybkiego i łatwego dostępu do pomocnych odpowiedzi.


Chociaż firmy zazwyczaj używają pulpitów nawigacyjnych do konsumowania informacji z danych w celu podejmowania strategicznych decyzji, podejście to ma pewne wady, takie jak przeciążenie informacjami, ograniczona elastyczność i czasochłonny development – mówi Mukesh Dubey, Product Owner Data Platform, CH NA, Bayer. – Co by było, gdyby wewnętrzni użytkownicy funkcjonalni mogli zadawać konkretne pytania bezpośrednio w ramach danych przedsiębiorstwa i otrzymywać wnioski z podstawowymi wizualizacjami? Rdzeniem tej możliwości są wysokiej jakości odpowiedzi na opracowane w języku naturalnym zapytania dotyczące ustrukturyzowanych danych i wykorzystywane w sposób zrównoważony operacyjnie. Właśnie to umożliwia nam Snowlake Cortex Analyst. Najbardziej ekscytuje mnie to, że to dopiero początek – nie możemy się doczekać uwolnienia większej wartości dzięki Snowflake Cortex AI.


Bezpieczeństwo danych jest kluczem do tworzenia aplikacji AI klasy produkcyjnej i doświadczeń czatu, a następnie skalowania ich w przedsiębiorstwach. Dlatego właśnie Snowflake prezentuje Snowflake Cortex Guard (ogólna dostępność wkrótce), który wykorzystuje Llama Guard firmy Meta, oparte na LLM zabezpieczenie wejścia/wyjścia, które filtruje i oznacza szkodliwe treści w danych i zasobach organizacyjnych, takie jak przemoc i nienawiść, samookaleczenie lub działalność przestępcza. Dzięki Cortex Guard Snowflake jeszcze szerzej odblokowuje zaufaną sztuczną inteligencję dla przedsiębiorstw, zapewniając, że dostępne modele są bezpieczne i użyteczne.

Snowflake wzmacnia doświadczenia AI, aby zwiększyć produktywność

Oprócz umożliwienia łatwego tworzenia szytych na miarę rozwiązań w formie czatu Snowflake zapewnia klientom gotowe doświadczenia oparte na sztucznej inteligencji, które są napędzane przez światowej klasy modele Snowflake. Dzięki Document AI (ogólna dostępność wkrótce) użytkownicy mogą łatwo wyodrębniać treści, takie jak kwoty faktur lub warunki umów z dokumentów, korzystając z wiodącego w branży multimodalnego LLM-a Snowflake, Snowflake Arctic-TILT, który przewyższa GPT-4 i uzyskał najwyższy wynik w teście porównawczym DocVQA – standardzie wizualnego odpowiadania na pytania dotyczące dokumentów. Organizacje, w tym Northern Trust, wykorzystują Document AI do inteligentnego przetwarzania dokumentów na dużą skalę, aby obniżyć koszty operacyjne przy wyższej wydajności. Snowflake rozwija również swojego przełomowego asystenta przetwarzania tekstu na kod SQL, Snowflake Copilot (ogólna dostępność wkrótce), który łączy mocne strony Mistral Large z zastrzeżonym modelem generowania SQL Snowflake, aby przyspieszyć produktywność każdego użytkownika SQL.

Odblokuj rozwój sztucznej inteligencji bez kodowania dzięki nowemu Snowflake AI & ML Studio Snowflake Cortex AI zapewnia klientom solidny zestaw najnowocześniejszych modeli od wiodących dostawców, w tym Google, Meta, Mistral AI i Reka, a także najwyższej klasy LLM Snowflake Arctic, aby przyspieszyć rozwój sztucznej inteligencji. Snowflake jeszcze bardziej demokratyzuje sposób, w jaki każdy użytkownik może wprowadzić te potężne modele do swoich danych korporacyjnych dzięki nowemu Snowflake AI & ML Studio (private preview), interaktywnemu interfejsowi bez kodu dla zespołów, dzięki czemu mogą one rozpocząć rozwój AI i szybciej produkować własne aplikacje oparte na AI. Co więcej, użytkownicy mogą łatwo testować i oceniać te modele, aby znaleźć najlepsze i najbardziej opłacalne dopasowanie do konkretnych przypadków użycia, ostatecznie przyspieszając ścieżkę produkcji przy jednoczesnej optymalizacji kosztów operacyjnych.

Aby pomóc organizacjom w dalszym zwiększaniu wydajności LLM-ów i dostarczaniu bardziej spersonalizowanych doświadczeń, Snowflake wprowadza Cortex Fine-Tuning (obecnie public preview) – rozwiązanie dostępne za pośrednictwem AI & ML Studio lub prostej funkcji SQL. Ta bezserwerowa personalizacja jest dostępna dla podzbioru modeli Meta i Mistral AI. Precyzyjnie dostrojone modele można następnie łatwo wykorzystać za pomocą funkcji Cortex AI, z dostępem zarządzanym za pomocą kontroli opartej na rolach.

Usprawnienie zarządzania modelami i funkcjami dzięki ujednoliconemu, zarządzanemu MLOps poprzez Snowflake ML

Po opracowaniu modeli ML i LLM większość organizacji boryka się z ich wykorzystywaniem na zmieniających się zestawach danych. Snowflake ML wprowadza możliwości MLOps do Chmury Danych Snowflake, dzięki czemu zespoły mogą płynnie odkrywać, nadzorować i zarządzać swoimi funkcjami, modelami i metadanymi w całym cyklu życia ML. Te scentralizowane możliwości MLOps integrują się również z resztą platformy Snowflake, w tym Snowflake Notebooks i Snowpark ML, zapewniając przystępne, kompleksowe doświadczenie.

Źródło: Snowflake

PRZECZYTAJ RÓWNIEŻ:


Back to top