Darmowe AI, hakerzy czyhają! Giganci pompują miliardy, a Nowy Jork reguluje.
Darmowe AI, hakerzy czyhają! Giganci pompują miliardy, a Nowy Jork reguluje.
Dnia 20.02.2026 miała miejsce premiera nowych, potężnych modeli AI, jednak ich rozwój przyniósł także poważne luki w zabezpieczeniach i zapoczątkował gigantyczne inwestycje, które wymagają natychmiastowych regulacji.
Ten przegląd powstał w 100% automatycznie.
Chcesz taki dla swojej firmy? Wypełnij formularz w zakładce Kontakt.
🤖 Automatyzacja w praktyce
Ten przegląd powstał w 100% automatycznie. Trafił także na:
- Listę mailingową, jako newsletter
- Grupę na Facebooku
- X (Twitter)
- Youtube jako post
Oraz jako krótkie wideo na:
- Tiktoka
- Youtube shorts
Jeśli chcesz zamówić taki przegląd newsów dla swojej firmy, wypełnij formularz w zakładce Zamów Automatyzację
A jeśli chcesz się nauczyć, jak robić takie automatyzacje, dołącz do społeczności Amatorów Automatyzacji
Szczegóły:
Claude Sonnet 4.6 rozbija konkurencję: Potężna AI, darmowa dla wielu!
Anthropic właśnie wypuścił Claude Sonnet 4.6, swój najnowszy model AI. Stał się on domyślnym narzędziem na claude.ai i Claude Cowork, dostępnym także przez API oraz główne platformy chmurowe. Anthropic zapewnia, że Sonnet 4.6 ma lepsze umiejętności kodowania i niższą tendencję do halucynacji.
Co to zmienia
Dostajesz potężniejszą AI, część za darmo
Użytkownicy otrzymują bezpłatny dostęp do potężnego modelu Claude Sonnet 4.6 z limitami, a za około 80 zł miesięcznie (20$) uzyskujesz pełne możliwości w planie Pro.
Firmy zyskują precyzyjne narzędzie do analiz i kodu
Biznesy zyskują wydajne narzędzie do analiz finansowych, zadań biurowych i kodowania, które w wewnętrznych testach bije nawet Google Gemini 3 Pro i OpenAI GPT 5.2, a jest przy tym tańsze od Opus 4.6 (od 12 zł za milion tokenów wejściowych).
Źródło
Mashable
Źródło: https://mashable.com/article/anthropic-claude-sonnet-4-6-released-how-to-try-benchmark-performance,
1. Tytuł: Google znowu na czele AI: Gemini 3.1 Pro z dwa razy lepszym myśleniem!
2. Co się stało:
Google uruchomiło Gemini 3.1 Pro, nową wersję swojego flagowego modelu AI, i tym samym odzyskało pozycję lidera w wyścigu sztucznej inteligencji. Model podwaja zdolności rozumowania, oferując wyższą wydajność dla zaawansowanych zadań naukowych i inżynieryjnych, a dla deweloperów pozostaje w tej samej cenie.
3. Szczegóły:
Google Gemini 3.1 Pro podwaja możliwości rozumowania w porównaniu do poprzednika, Gemini 3 Pro. Model osiągnął 77.1% na benchmarku ARC-AGI-2, sprawdzającym rozwiązywanie nowych wzorców logicznych. Wykazuje też wysoką skuteczność w wiedzy naukowej (94.3%), kodowaniu (Elo 2887) i rozumieniu multimodalnym (92.6%). Google demonstruje jego możliwości przez generowanie animowanych grafik SVG z tekstu, tworzenie złożonych wizualizacji, interaktywne projektowanie 3D z manipulacją ruchem dłoni oraz tłumaczenie stylistyki literackiej na projekty webowe. Google utrzymało ceny poprzedniego modelu, oferując wzrost wydajności bez dodatkowych kosztów. Przybliżając 1 USD do 4 PLN, za milion tokenów wejścia zapłacisz około 8 PLN (do 200 tys.) lub 16 PLN (powyżej 200 tys.). Koszt wyjścia to około 48 PLN (do 200 tys.) lub 72 PLN (powyżej 200 tys.). Firmy korzystają z „uziemionego rozumowania” w ramach Vertex AI, co zapewnia bezpieczeństwo ich danych. Model obecnie dostępny jest w fazie „Preview”.
4. Co to zmienia:
Zyskujesz wydajniejsze AI za tę samą cenę
Jeśli masz subskrypcję Google AI Pro lub Ultra, zobaczysz wyższe limity i sprawniejsze działanie Gemini w aplikacji oraz NotebookLM. Model podwaja swoje zdolności rozumowania bez zmiany ceny, co oznacza, że otrzymujesz znacznie lepsze narzędzie bez dodatkowych kosztów.
Firmy przyspieszą rozwój dzięki precyzyjnemu AI
Przedsiębiorstwa integrujące Gemini 3.1 Pro zgłaszają wzrost jakości o 15% i większą wydajność. Model ułatwia pracę z danymi, poprawia animacje 3D i lepiej rozumie intencje stojące za zapytaniami, co przekłada się na oszczędności i nowe możliwości w tworzeniu zaawansowanych rozwiązań.
5. Źródło: VentureBeat
Źródło: https://venturebeat.com/technology/google-launches-gemini-3-1-pro-retaking-ai-crown-with-2x-reasoning,
OpenAI: Sztuczna inteligencja już hakuje smart kontrakty. Czy to dla naszego dobra?
OpenAI i Paradigm uruchomiły narzędzie EVMbench, które ocenia zdolność sztucznej inteligencji do wykrywania, naprawiania, ale i wykorzystywania luk w smart kontraktach. Firmy chcą wykorzystać AI do ochrony cyfrowych aktywów o wartości ponad 100 miliardów dolarów (około 400 miliardów złotych). Testy pokazały jednak, że AI ma już spore możliwości w hakowaniu.
Twoje kryptowaluty będą bezpieczniejsze, ale i bardziej zagrożone
Jeśli trzymasz aktywa w smart kontraktach, masz szansę na lepszą ochronę dzięki audytom AI, ale jednocześnie wzrasta ryzyko wyrafinowanych ataków przeprowadzanych przez sztuczną inteligencję.
Firmy mogą obniżyć koszty audytów, ale muszą chronić się przed nową generacją cyberprzestępców
Przedsiębiorstwa zyskują potencjał do automatyzacji i obniżenia kosztów audytowania smart kontraktów. Jednocześnie muszą przygotować się na nowe, zaawansowane zagrożenia cybernetyczne ze strony sztucznej inteligencji.
Źródło: ForkLog
Źródło: https://forklog.com/en/openai-unveils-benchmark-for-ai-agents-ability-to-hack-smart-contracts/,
Meta inwestuje w AI z Nvidią i wskrzesza smartwatcha: Akcje rosną!
Meta Platforms zawarła wieloletnią umowę z Nvidią na rozwój infrastruktury AI i ożywiła projekt smartwatcha. Po tych wiadomościach, w czwartek 19 lutego 2026 roku, akcje firmy wzrosły o 0,3% do 644,78 dolara. Inwestorzy widzą w tym mocny sygnał na przyszłość firmy, mimo zapowiadanych wzrostów kosztów.
Meta Platforms zacieśnia współpracę z Nvidią, podpisując wieloletnie, wielopokoleniowe partnerstwo w obszarze infrastruktury AI. Meta zbuduje hiperskalowe centra danych, które posłużą zarówno do „treningu” (tworzenia modeli AI), jak i „inferencji” (obsługi użytkowników). Firma wdroży miliony procesorów graficznych Nvidia Blackwell i Rubin, a także procesory Grace CPUs oraz rozwiązania sieciowe Spectrum-X Ethernet.
Dla Mety kluczowa jest poprawa „wydajności na wat”, czyli maksymalizowanie pracy obliczeniowej przy danej jednostce zużytej energii. Mark Zuckerberg, prezes Mety, deklaruje, że firma zamierza stworzyć „najnowocześniejsze klastry” wykorzystujące platformę Vera Rubin od Nvidii. Prezes Nvidii, Jensen Huang, podkreślił, że „nikt nie wdraża AI na skalę Mety”.
Równolegle Meta rozwija własne chipy AI i prowadzi rozmowy z Google w sprawie zastosowania ich jednostek TPU. To pokazuje długoterminową strategię inwestycyjną.
Firma nie koncentruje się wyłącznie na AI. Ożywia projekt smartwatcha „Malibu 2”, który zadebiutuje jeszcze w tym roku. Urządzenie ma oferować monitorowanie zdrowia i wbudowanego asystenta Meta AI.
Meta już wcześniej przygotowała inwestorów na wzrost wydatków w 2026 roku, związany z rozwojem „superinteligencji” i zatrudnianiem specjalistów AI. Firma musi też zmierzyć się z pozwami sądowymi, takimi jak proces o uzależnianie młodzieży od mediów społecznościowych.
Otrzymasz szybsze AI i nowy gadżet
Użytkownicy zobaczą ulepszenia w swoich aplikacjach Meta, takich jak Facebook, Instagram czy WhatsApp, dzięki potężniejszym systemom AI. Oczekuj też premiery nowego smartwatcha z funkcjami zdrowotnymi i asystentem Meta AI.
Meta zwiększa przewagę w wyścigu AI
Meta inwestuje ogromne środki, aby umocnić swoją pozycję w wyścigu AI, co może przełożyć się na nowe, zaawansowane narzędzia dla reklamodawców i twórców. Rosnące koszty inwestycji i potencjalne ryzyka prawne to jednak wyzwania.
Źródło
Bez-Kabli.pl
Źródło: https://www.bez-kabli.pl/meta-stock-ticks-up-after-hours-as-nvidia-ai-chip-deal-and-smartwatch-reboot-keep-investors-guessing/,
Microsoft Copilot czytał Twoje poufne maile!
Microsoft przyznał się do poważnego błędu: jego narzędzie AI Copilot Chat dla firm uzyskało dostęp do poufnych e-maili użytkowników. Sztuczna inteligencja podsumowywała wiadomości z folderów roboczych i wysłanych, w tym te wyraźnie oznaczone jako tajne. Firma już naprawiła usterkę, ale eksperci alarmują, że to dopiero początek.
Microsoft 365 Copilot Chat, promowany jako bezpieczne narzędzie do pracy z generatywną AI, działa w popularnych aplikacjach jak Outlook i Teams. Użytkownicy używają go do podsumowywania wiadomości czy uzyskiwania odpowiedzi na pytania. Jednak niedawny błąd w kodzie spowodował, że Copilot analizował e-maile firmowe, w tym te przechowywane w folderach roboczych i wysłanych, nawet jeśli posiadały one etykiety poufności i były chronione polityką zapobiegania utracie danych. Microsoft twierdzi, że „nie zapewnił nikomu dostępu do informacji, do których i tak nie był uprawniony”. Firma wydała globalną aktualizację, która naprawiła usterkę, i podkreśla, że dane pacjentów nie wyciekły. Mimo zapewnień, eksperci biją na alarm. Nader Henein, analityk ds. ochrony danych w Gartner, ocenia, że „tego rodzaju wpadki są nieuniknione”, bo firmy zbyt szybko wprowadzają nowe funkcje AI. Profesor Alan Woodward z University of Surrey dodaje, że narzędzia AI powinny być domyślnie prywatne, a aktywacja funkcji powinna zależeć od użytkownika, bo „wycieki danych będą miały miejsce”.
Twoje tajne maile nie są już tak tajne
Jeśli pracujesz w firmie używającej Copilota, Twoje maile, nawet te poufne, mogły być analizowane przez AI. Mimo że Microsoft twierdzi, iż nikt niepowołany nie widział danych, to zdarzenie pokazuje, jak łatwo AI może przekroczyć granice prywatności.
Firmy pędzą z AI, narażając się na ryzyko
Firmy wdrażające AI muszą być ostrożne. Presja, by szybko wprowadzać nowe funkcje AI, prowadzi do błędów, które mogą skutkować wyciekami danych. Organizacje potrzebują lepszych narzędzi do zarządzania ryzykiem i kontroli, zamiast tylko wyłączać funkcje po wykryciu problemu.
Źródło
BBC News
Źródło: https://www.bbc.com/news/articles/c8jxevd8mdyo,
USA stawia na AI: Nowa inicjatywa NIST ma zapewnić globalną dominację
Co się stało
W tym tygodniu Amerykański Narodowy Instytut Standardów i Technologii (NIST) uruchomił nową inicjatywę. Ma ona stworzyć mapę drogową dla rozwoju agentowej sztucznej inteligencji i rozwiązać jej problemy bezpieczeństwa. Główny cel: umocnić globalną dominację USA w tej kluczowej technologii.
Szczegóły:
Amerykański Narodowy Instytut Standardów i Technologii (NIST) ogłosił nową inicjatywę: AI Agent Standards Initiative. Chce stworzyć mapę drogową, która zapewni powszechne i bezpieczne wdrażanie agentów AI. Te autonomiczne narzędzia, które już stały się podstawą dla firm, niosą ze sobą duże ryzyko niewłaściwego użycia, błędów i nieprzewidzianych konsekwencji. CAISI (Center for AI Standards and Innovation), działające w ramach NIST, rozszerzyło swój mandat. Ma teraz nie tylko dbać o bezpieczeństwo, ale także „umacniać dominację USA na technologicznej granicy”. Cel to wspieranie amerykańskiego przywództwa w międzynarodowych organach standaryzacyjnych, rozwój agentów AI w open-source oraz badania nad ich bezpieczeństwem i zastosowaniami. Ważna jest też interoperacyjność – agenty różnych firm muszą ze sobą współpracować. Bez zaufania i interoperacyjności innowatorzy napotkają fragmentację rynku. Przykłady problemów już się pojawiają: luka „EchoLeak” w Microsoft 365 Copilot i agent OpenClaw, który otwiera drzwi hakerom do danych użytkowników. Gary Phipps z Helmet Security uważa jednak, że NIST działa zbyt wolno. Stwierdza: „Standardy nie tworzą dominacji: one za nią podążają.” NIST czeka na uwagi do 9 marca i organizuje sesje w kwietniu.
AI agent będzie bezpieczniejszy, ale poczekamy
Użytkownicy zyskają na większej niezawodności i bezpieczeństwie agentów AI w aplikacjach. Lepsza współpraca między różnymi AI agentami ułatwi im codzienne zadania. Proces tworzenia tych standardów idzie jednak wolno, więc na realne efekty trzeba poczekać.
USA umacnia pozycję, firmy zyskują jasne zasady
Amerykańskie firmy zyskają przewagę dzięki umacnianiu dominacji USA w tworzeniu standardów AI. Standardy pomogą im budować niezawodne i interoperacyjne rozwiązania, zmniejszając ryzyko fragmentacji rynku. Jednocześnie, krytyka wskazuje, że tempo prac może nie nadążać za rozwojem technologii, co generuje opóźnienia i ryzyka.
Źródło
CSOOnline.com
Źródło: https://www.csoonline.com/article/4134743/us-dominance-of-agentic-ai-at-the-heart-of-new-nist-initiative.html,
1. Tytuł:
Grok 4.1 Fast w Copilot Studio: Microsoft dodaje AI od xAI!
2. Co się stało:
Microsoft udostępnił model Grok 4.1 Fast firmy xAI w swoim Copilot Studio. Od dziś twórcy w Stanach Zjednoczonych mogą używać tej szybkiej AI do budowania i optymalizacji agentów, z opcjami dla innych regionów w fazie oceny. Posunięcie daje użytkownikom większy wybór modeli i elastyczność w projektowaniu złożonych przepływów pracy.
3. Szczegóły:
Grok 4.1 Fast to model AI do szybkiego rozumowania i generowania tekstu, który nie obsługuje obrazów ani innych mediów. Deweloperzy wykorzystają go do zadań wymagających szerokiego kontekstu i zaawansowanego użycia narzędzi, co usprawni skomplikowane procesy.
Microsoft podkreśla zaangażowanie w zapewnienie elastyczności, dodając Groka obok modeli od OpenAI i Anthropic. Wszystkie modele w Copilot Studio przechodzą oceny bezpieczeństwa i jakości przed wdrożeniem.
Model Grok 4.1 Fast dostępny jest domyślnie wyłączony w środowiskach wczesnego dostępu. Administratorzy organizacji muszą wyraźnie aktywować tę opcję, zanim twórcy z USA zaczną z niego korzystać. Bez ich zgody, dotychczasowe opcje modeli pozostają bez zmian.
Ważne jest, że podczas pracy z Grok 4.1 Fast w Copilot Studio, xAI nie przechowuje ani nie używa danych klientów do trenowania swoich modeli. Modele xAI działają poza środowiskami zarządzanymi przez Microsoft, a relacja z xAI podlega niezależnym warunkom usługowym i dodatkom o ochronie danych xAI.
4. Co to zmienia:
Deweloperzy w USA zyskują nowe narzędzie AI
Od teraz, jeśli pracujesz w USA, masz kolejny mocny model AI – Grok 4.1 Fast – do budowania agentów w Copilot Studio. Oznacza to więcej możliwości i potencjalnie szybsze tworzenie zaawansowanych rozwiązań, choć dla polskich deweloperów to na razie zapowiedź przyszłych zmian.
Firmy wzmacniają swoje rozwiązania AI
Microsoft poszerza ofertę Copilot Studio, dając firmom większy wybór w narzędziach AI. Nowy model xAI zwiększa elastyczność i moc obliczeniową dla złożonych zadań, a niezależna polityka prywatności xAI to dodatkowy atut dla biznesu.
5. Źródło:
Microsoft
Źródło: https://www.microsoft.com/en-us/microsoft-copilot/blog/copilot-studio/more-choice-more-flexibility-xai-grok-4-1-fast-now-available-in-microsoft-copilot-studio/,
Francuscy giganci łączą siły: Suwerenna AI zmienia oblicze obrony!
Co się stało
Francuskie koncerny obronne Naval Group i Thales połączyły siły, aby przyspieszyć rozwój suwerennej sztucznej inteligencji. Naval Group dołączyło do zainicjowanej w 2024 roku przez Thales inicjatywy cortAIx. Cel: zintegrować zaawansowaną AI z systemami obronnymi, zwłaszcza w marynarce wojennej.
Szczegóły:
Thales, światowy lider zaawansowanych technologii, stworzył w 2024 roku inicjatywę cortAIx. Zatrudnia ponad 800 ekspertów AI w pięciu centrach, w tym we Francji, Wielkiej Brytanii, Kanadzie, Singapurze i Niemczech. cortAIx konsoliduje badania, inżynierię i industrializację AI dla krytycznych środowisk. Thales przez dekadę mocno inwestował w R&D, zostając europejskim liderem patentów w AI dla systemów krytycznych. Jego technologia zasila już ponad 100 produktów.
Naval Group stawia innowacje w centrum swojej strategii, dążąc do zapewnienia przewagi technologicznej klientom na morzu. Firma intensywnie używa nowych technologii cyfrowych, sztucznej inteligencji i rozszerzonej rzeczywistości.
Pierre Éric Pommellet, Prezes i Dyrektor Generalny Naval Group, powiedział: „Dołączenie Naval Group do cortAIx France to ważny krok w integracji AI z systemami morskimi. Partnerstwo przyspieszy przyszłość inżynierii i systemów morskich, gdzie AI odgrywa coraz większą rolę. Pokazuje też wolę przekraczania tradycyjnych granic innowacji na rzecz suwerennej i kontrolowanej AI, kluczowej dla budowania morskiej wojny jutra”.
Patrice Caine, Prezes i Dyrektor Generalny Thales, dodał: „Współpraca dwóch głównych graczy obronnych połączy ich wiedzę i przyspieszy integrację suwerennej AI w systemach krytycznych. To pomoże siłom zbrojnym zyskać przewagę w obliczu rosnących zagrożeń, zawsze z człowiekiem w centrum kontroli”.
Twoje bezpieczeństwo zyskuje nową tarczę
Dzięki tej współpracy, armie zyskają dostęp do zaawansowanych, bezpiecznych systemów AI, które zapewnią przewagę w obronności. Ludzka kontrola nad tymi systemami pozostaje kluczowa. Oznacza to potencjalnie szybsze reagowanie na zagrożenia i lepszą ochronę granic oraz szlaków morskich.
Francuskie firmy zbrojeniowe cementują dominację w AI
Naval Group i Thales wzmocnią swoją pozycję na globalnym rynku obronnym. Współpraca minimalizuje zależność od zagranicznych technologii, zapewniając kontrolę nad kluczowymi systemami obronnymi. To otwiera drzwi do nowych, lukratywnych kontraktów i innowacyjnych rozwiązań dla sojuszników.
Źródło
Ocean News & Technology
Źródło: https://oceannews.com/news/defense/naval-group-and-thales-join-forces-for-a-sovereign-ai-in-france/,
Hakerzy zamieniają Groka i Copilota w ukryte kanały kontroli nad systemami!
Co się stało
Badacze z Check Point Research (CPR) odkryli, że hakerzy używają asystentów AI, takich jak Grok i Microsoft Copilot, do ukrywania komunikacji złośliwego oprogramowania. Zdolność tych platform do przeglądania stron i pobierania adresów URL pozwala cyberprzestępcom tworzyć dwukierunkowe kanały kontroli, omijając standardowe zabezpieczenia firm.
Szczegóły:
Hakerzy infekują komputer złośliwym oprogramowaniem. Następnie malware komunikuje się z asystentem AI poprzez interfejs webowy. Program AI pobiera treści z adresu URL kontrolowanego przez atakującego, a następnie przekazuje ukryte instrukcje z powrotem do złośliwego oprogramowania. Firmy często domyślnie zezwalają na dostęp do usług AI i słabo monitorują ten ruch, co sprawia, że zaufane domeny AI stają się niewidoczną infrastrukturą dla hakerów.
„Przedstawiony przez nas scenariusz ataku jest prosty: atakujący infekuje maszynę i instaluje złośliwe oprogramowanie” – podaje CPR. Malware może też poprosić AI o wygenerowanie komend operacyjnych, np. znajdowanie plików czy tworzenie skryptów PowerShell, bez bezpośredniej kontroli człowieka. Sakshi Grover, starsza menadżerka badań IDC Asia Pacific Cybersecurity Services, mówi: „Przedsiębiorstwa zezwalające na nieograniczony dostęp do publicznych usług AI bez inspekcji, kontroli tożsamości czy silnego logowania, są bardziej narażone, niż wielu zdaje sobie sprawę”. Sunil Varkey, analityk cyberbezpieczeństwa, porównuje tę technikę do steganografii czy ataków „living off the land”. Krutik Poojara, praktyk cyberbezpieczeństwa, podkreśla, że kiedy AI aktywnie kieruje zachowaniem malware’u, wykrywanie nie opiera się już na statycznych sygnaturach, lecz na adaptacyjnym, kontekstowym zachowaniu.
Firmy muszą zmienić strategię ochrony
Ten atak oznacza zmianę podejścia do bezpieczeństwa IT. Firmy muszą stworzyć kompleksowy spis używanych narzędzi AI oraz jasne zasady ich zatwierdzania i włączania. Wprowadź specjalistyczne monitorowanie ruchu AI i reguły wykrywania nietypowych wzorców automatyzacji. Organizacje powinny również inwestować w platformy, które zapewniają ujednoliconą widoczność w sieci, chmurze, warstwach tożsamości i aplikacji, aby korelacja sygnałów była możliwa.
Twoje dane firmowe stają się mniej bezpieczne
Jeśli Twoja firma używa narzędzi AI, takich jak Grok czy Copilot, ryzyko ukrytych infekcji rośnie. Hakerzy mogą wykorzystać te platformy do kontroli systemów firmowych, co naraża Twoje dane na wyciek lub manipulację.
Źródło
CSO Online
Źródło: https://www.csoonline.com/article/4134419/hackers-can-turn-grok-copilot-into-covert-command-and-control-channels-researchers-warn.html,
Nowy Jork narzuca ramy regulacji AI: Giganci zmuszeni do transparentności!
Gubernator Nowego Jorku, Kathy Hochul, w grudniu 2025 roku podpisała ustawę RAISE Act. To przełomowe prawo ustanawia ramy regulacyjne dla potężnych modeli sztucznej inteligencji, wymagając od największych deweloperów pełnej transparentności i szybkiego raportowania o krytycznych incydentach. Stan wyznacza tym samym kierunek przyszłej regulacji AI w USA.
Nowa ustawa dotyczy tylko „dużych deweloperów modeli frontier”, czyli firm z rocznymi przychodami przekraczającymi 500 milionów dolarów (około 2 miliardy złotych), które trenują lub inicjują trening modeli o mocy obliczeniowej powyżej 10^26 operacji. W praktyce obejmuje to gigantów takich jak OpenAI, Anthropic czy Meta. Prawo koncentruje się na ryzykach katastrofalnych – tych, które mogą spowodować śmierć lub poważne obrażenia u ponad 50 osób albo straty powyżej 1 miliarda dolarów (około 4 miliardy złotych) w jednym incydencie. Deweloperzy muszą stworzyć, wdrożyć i publicznie ujawnić „framework AI”, który wyjaśnia, jak oceniają i łagodzą te ryzyka. Firmy będą aktualizować te ramy co roku oraz po każdej istotnej modyfikacji modelu, uzasadniając zmiany w ciągu 30 dni. Muszą także publikować raporty przejrzystości przed wdrożeniem nowego modelu. W przypadku „krytycznych incydentów bezpieczeństwa”, firmy muszą powiadomić regulatorów stanu w ciągu 72 godzin, a jeśli incydent stwarza bezpośrednie ryzyko śmierci lub poważnych obrażeń, termin skraca się do 24 godzin. Za pierwsze naruszenie grozi im kara do 1 miliona dolarów (około 4 milionów złotych), a za kolejne – do 3 milionów dolarów (około 12 milionów złotych).
AI będzie bezpieczniejsza dla wszystkich
Nowe przepisy zmierzają do zapewnienia, że najbardziej zaawansowane systemy sztucznej inteligencji działają w sposób kontrolowany i transparentny, zwłaszcza w obliczu potencjalnych, katastrofalnych ryzyk. To zwiększa zaufanie do technologii i chroni użytkowników przed jej najgroźniejszymi konsekwencjami.
Giganci AI zmuszeni do kosztownej transparentności
Ustawa wymusza na wiodących deweloperach AI znaczne inwestycje w procesy zarządzania ryzykiem, tworzenie publicznych dokumentacji i błyskawiczne raportowanie incydentów. Firmy, które wcześnie zainwestują w trwałe procesy ładu korporacyjnego, zyskają przewagę, ponieważ inne stany prawdopodobnie pójdą za przykładem Nowego Jorku.
Źródło: Bloomberg Law
Źródło: https://news.bloomberglaw.com/legal-exchange-insights-and-commentary/new-yorks-raise-act-is-the-blueprint-for-ai-regulation-to-come,
Izrael buduje własne AI: Koniec z obcą kontrolą nad danymi rządowymi?
DREAM, izraelska firma specjalizująca się w sztucznej inteligencji, otworzyła w czwartek swoje pierwsze suwerenne centrum danych AI w pobliżu Modi’in. Inwestycja warta dziesiątki milionów dolarów ma zapewnić rządowi oraz operatorom infrastruktury krytycznej pełną kontrolę nad danymi, procesami trenowania modeli i środowiskami ich wdrożenia, eliminując zależność od zewnętrznych platform chmurowych.
Szczegóły
DREAM strategicznie wchodzi na rynek rządowej infrastruktury AI, odpowiadając na rosnące zapotrzebowanie na niezależne systemy. Centrum danych wyposażono w klaster GPU zbudowany na systemach NVIDIA B200, co pozwala firmie na trenowanie autorskich modeli językowych i systemów AI specyficznych dla różnych dziedzin. DREAM nie polega wyłącznie na publicznych modelach bazowych; zamiast tego, rozwija własne rozwiązania dla sektorów takich jak cyberbezpieczeństwo, opieka zdrowotna, transport, finanse oraz systemy wsparcia decyzji dla agencji rządowych.
Firma DREAM powstała w 2023 roku. Założyli ją Shalev Hulio (były dyrektor generalny NSO Group), Sebastian Kurz (były kanclerz Austrii) i Gil Dolev. Hulio, obecnie CEO DREAM, podkreśla misję firmy: chronić przedsiębiorstwa rządowe, krajowe systemy cybernetyczne i firmy infrastrukturalne. Hulio wyjaśnił, że nowe centrum wypełnia lukę rynkową dla systemów AI, które muszą działać w suwerennych warunkach. „Kiedy sztuczna inteligencja wkracza do domen rządowych i infrastruktury narodowej, budowa silnego modelu nie wystarczy. Musisz kontrolować także warunki, w których go trenujesz i wdrażasz” – powiedział.
Szkolenie modeli odbywa się w izolowanym środowisku, które odzwierciedla warunki operacyjne klienta, umożliwiając bezpieczne użycie wrażliwych danych bez ekspozycji na zewnątrz. Centrum powstało we współpracy z firmą Bynet i łączy wysokowydajną infrastrukturę obliczeniową, szybką sieć InfiniBand oraz pamięć masową zoptymalizowaną do trenowania dużych modeli. Platforma AION od DREAM zapewnia klientom pełną kontrolę nad wagami modeli, procesami trenowania i przepływami pracy wdrożeniowych – możliwości, których zazwyczaj nie oferują komercyjne platformy chmurowe.
Rząd chroni twoje dane przed obcymi rękami
Nowa inwestycja Izraela bezpośrednio wpływa na bezpieczeństwo narodowe. Rząd zyskuje pełną kontrolę nad wrażliwymi danymi oraz modelami sztucznej inteligencji, które go obsługują. Oznacza to potencjalnie lepszą ochronę prywatności obywateli i większą odporność na cyberataki, ponieważ żaden podmiot zewnętrzny nie zarządza tymi informacjami.
Izrael umacnia pozycję lidera w technologiach AI
DREAM, dotąd skupiony na algorytmach, teraz oferuje kompleksowe, suwerenne systemy AI, łącząc infrastrukturę, modele i ramy zarządzania w jeden stos operacyjny. To pozycjonuje Izrael jako lidera w technologiach AI dla rządów i regulowanych branż, stwarzając nowe możliwości dla lokalnego ekosystemu technologicznego i przyciągając dalsze inwestycje.
Źródło
The Jerusalem Post
Źródło: https://www.jpost.com/business-and-innovation/article-887224,
AI przejmuje HR: Gigant ADP inwestuje w inteligentnych agentów
Platforma AI Ema i lider rozwiązań HR, firma ADP, ogłosili strategiczne partnerstwo oraz inwestycję. W środę, 19 lutego 2026 roku, Ema i ADP oficjalnie rozpoczęli współpracę, by budować i wdrażać zaufanych agentów AI na platformach ADP, usprawniając procesy kadrowo-płacowe na całym świecie.
ADP połączyło siły z Ema, aby wprowadzić specjalnie zaprojektowanych agentów AI na swoje platformy HCM (Human Capital Management). Te inteligentne programy rozwiązują kluczowe problemy specjalistów HR i płacowych, automatyzując złożone, wieloetapowe operacje. Platforma Ema, napędzana autorską technologią EmaFusion™ oraz silnikiem Generative Workflow Engine™, potrafi zarządzać ponad 100 dużymi modelami językowymi. Dzięki temu firmy mogą wdrażać spersonalizowanych agentów AI, którzy automatyzują kompleksowe procesy w działach HR, finansów, obsługi klienta i innych obszarach. Surojit Chatterjee, CEO i współzałożyciel Ema, podkreśla, że ogromna skala działania ADP i głębokie zrozumienie złożoności pracy czynią z nich idealnego partnera do wprowadzania agentów AI. Rozwiązanie Ema gwarantuje bezpieczeństwo klasy korporacyjnej, testy Turinga ograniczające stronniczość i pełną przejrzystość źródeł, co jest kluczowe dla branż regulowanych, jak opieka zdrowotna czy ubezpieczenia. Usman „Oz” Khan, wiceprezes i szef ADP Ventures, jasno stwierdza: „Nasza inwestycja w Ema odzwierciedla nasze przekonanie, że agentowa sztuczna inteligencja przeformuje operacje biznesowe”.
Pracownicy poczują, jak HR staje się szybsze
Automatyzacja procesów HR sprawi, że pracownicy szybciej dostaną odpowiedzi na pytania dotyczące płac, benefitów czy wniosków. AI zajmie się rutynowymi zadaniami, odciążając ludzi z administracji.
Firmy zyskują precyzyjnego wsparcia AI
Partnerstwo ADP i Ema otwiera firmom drogę do znacznego zwiększenia efektywności i obniżenia kosztów operacyjnych w działach HR i innych obszarach. Integracja agentów AI w platformy ADP zapewni globalny zasięg, dokładność i bezpieczeństwo danych, co umożliwi szybszy rozwój oraz zwiększy zdolność do przestrzegania norm zgodności.
Źródło
voiceofalexandria.com
Źródło: https://www.voiceofalexandria.com/news/national_business_news/ema-and-adp-announce-strategic-partnership-to-scale-enterprise-grade-agentic-ai/article_11ccba40-07ab-55ea-82a7-6eea91c70033.html,
75 milionów dolarów na AI do ścigania finansowych przestępców
Co się stało
Firma Bretton AI, wcześniej znana jako Greenlite AI, 19 lutego 2026 roku pozyskała 75 milionów dolarów (około 295 milionów złotych) w rundzie finansowania Series B. Inwestorzy, z Sapphire Ventures na czele, przekazali te środki na rozwój agentowej AI, która pomaga instytucjom finansowym skutecznie walczyć z przestępczością gospodarczą. Pieniądze wspierają ekspansję produktu i zdobywanie nowych, dużych klientów.
Szczegóły:
Firma Bretton AI, założona w 2023 roku przez CEO Willa Lawrence’a, specjalizuje się w technologii do walki z przestępczością finansową. Jej platforma agentowa AI automatyzuje kluczowe procesy w bankach i innych instytucjach finansowych. System analizuje transakcje, przeprowadza weryfikacje tożsamości klientów (KYC) oraz firm (KYB), prowadzi dochodzenia w sprawach prania brudnych pieniędzy (AML) i monitoruje listy sankcyjne. Nazwa firmy zmieniła się niedawno z Greenlite AI na Bretton AI, co odzwierciedla rozszerzenie oferty na kompleksową platformę operacyjną. Pozyskane 75 milionów dolarów, czyli równowartość około 295 milionów złotych, firma przeznaczy na dalszy rozwój produktów i technologii. Dzięki temu efektywniej będzie współpracować z organami regulacyjnymi i zdobywać nowych, dużych klientów na globalnym rynku. Rajeev Dham, partner w Sapphire Ventures, dołączył do zarządu firmy, wzmacniając jej strategiczne kierownictwo. Inwestycję poparły także TIAA Ventures oraz obecni udziałowcy, jak Canvas Ventures czy Greylock.
Banki lepiej ochronią Twoje pieniądze
Nowa technologia oznacza, że instytucje finansowe skuteczniej wykrywają i zapobiegają oszustwom, praniu pieniędzy oraz innym formom przestępczości. Twoje środki w banku będą bezpieczniejsze, a ryzyko, że ktoś wykorzysta Twoje dane, spada.
Instytucje finansowe oszczędzą czas i pieniądze
Firmy finansowe zyskują narzędzie do automatyzacji skomplikowanych i kosztownych procesów związanych z przestrzeganiem przepisów (compliance). To zredukuje koszty operacyjne, zwiększy precyzję kontroli i przyspieszy identyfikację zagrożeń, minimalizując kary regulacyjne.
Źródło
The AI Insider
Źródło: https://theaiinsider.tech/2026/02/19/bretton-ai-closes-75m-series-b-to-expand-agentic-ai-for-financial-crime-compliance/,
Musk uruchamia Groka 4.2: AI, która uczy się co tydzień, a już dzieli opinie
Co się stało
Firma xAI Elona Muska udostępniła publiczną wersję beta swojego nowego modelu AI, Grok 4.2. Model, który ma uczyć się i aktualizować co tydzień, od razu podzielił użytkowników i ekspertów w kwestii swoich możliwości. To odpowiedź Muska na opóźnienia i odejścia kluczowych pracowników z xAI.
Szczegóły:
Grok 4.2, pomimo „skromnych” 500 miliardów parametrów, wyróżnia się unikalną zdolnością szybkiego uczenia się na podstawie bieżących informacji zwrotnych. Elon Musk osobiście potwierdził na X, że ten „mały” model stanowi dopiero początek, a firma planuje wdrożenie jego większych wersji. Model samodzielnie iteruje swoje algorytmy, aktualizując się co tydzień, co jest jego kluczową cechą. Musk podkreślał, że Grok 4.2 przewyższa inne AI w zdolnościach predykcyjnych, jednak xAI nie udostępniło szczegółowych raportów technicznych.
Użytkownicy muszą ręcznie włączyć Groka 4.2 w ustawieniach, ponieważ nie jest on domyślną wersją. Model sprawnie rozwiązał test „myjni samochodowej 50 metrów dalej”, co pokazuje jego zdolność do rozumienia kontekstu. Opinie na temat Groka 4.2 są sprzeczne. Część użytkowników chwali jego szybkość w generowaniu kodu i zdolności multimodalne, w tym pozytywne przejście testów etycznych, gdzie inne modele zawiodły. Inni krytykują jego ograniczone możliwości w skomplikowanych wnioskowaniach logicznych i zauważają, że wiele odpowiedzi wyraża preferencje samego Muska, co podważa jego deklarowaną bezstronność.
Dostęp do cotygodniowo lepszej AI z charakterem Muska
Użytkownicy X, szczególnie subskrybenci, zyskują dostęp do eksperymentalnego, szybko uczącego się modelu AI. Musisz go aktywować ręcznie. Spodziewaj się, że Grok 4.2 będzie ewoluował, ale także odzwierciedlał poglądy Elona Muska.
Nowe możliwości dla twórców i wyzwanie dla konkurencji
Firmy i twórcy treści zyskują narzędzie, które ma potencjał do szybkiej adaptacji i generowania innowacyjnych rozwiązań. Cotygodniowe aktualizacje sugerują dynamiczny rozwój. Konkurencja, zwłaszcza OpenAI i Anthropic, musi zmierzyć się z modelem, który, choć początkowo skromny, ma obiecane większe wersje. To zwiększy presję na innowacje i skróci cykle rozwoju AI.
Źródło
IT之家
Źródło: https://www.ithome.com/0/922/443.htm,
Twój darmowy Claude Sonnet 4.6 widzi i działa jak na prawdziwym komputerze!
Anthropic udostępnił Claude Sonnet 4.6, nową, znacząco ulepszoną wersję swojego modelu AI. Teraz każdy użytkownik darmowego planu na claude.ai zyskuje inteligentne narzędzie, które obsługuje komputer niemal jak człowiek, pisze kod i rozumie potężne ilości danych. Zmiana podnosi poprzeczkę dla darmowych asystentów AI.
Szczegóły
Claude Sonnet 4.6 stał się domyślnym modelem na platformach claude.ai i Claude Cowork, zarówno dla planów darmowych, jak i Pro, utrzymując dotychczasowe ceny. Anthropic skupił się na kluczowych obszarach: pisaniu kodu, obsłudze komputera, rozumowaniu na podstawie bardzo długich kontekstów, planowaniu i zadaniach biurowych. Model może teraz wchodzić w interakcje z prawdziwymi aplikacjami, takimi jak Chrome, LibreOffice czy Visual Studio Code, używając wirtualnej myszy i klawiatury. Dotychczasowe testy pokazują, że radzi sobie niemal na ludzkim poziomie z kompleksowymi arkuszami kalkulacyjnymi czy wieloetapowym wypełnianiem formularzy w przeglądarce.
W kwestii bezpieczeństwa, Anthropic wzmocnił odporność modelu na ataki typu „prompt injection”, osiągając poziom zbliżony do droższego Claude Opus 4.6. Deweloperzy docenią Sonnet 4.6 za lepsze czytanie kontekstu kodu i mniejszą tendencję do tworzenia błędnych rozwiązań. Dodatkowo, model otrzymał okno kontekstowe o rozmiarze miliona tokenów (w fazie beta), co oznacza, że przetwarza i rozumuje na podstawie niewyobrażalnie dużych zbiorów danych. Ta funkcja pozwoli mu zarządzać złożonymi projektami, prowadząc symulacje biznesowe i analizując dokumenty z dokładnością porównywalną do najdroższych modeli.
Darmowy Claude 4.6 to Twój nowy pomocnik od wszystkiego
Masz teraz do dyspozycji darmowego asystenta AI, który potrafi obsługiwać programy biurowe, analizować duże dokumenty, a nawet pisać kod, poruszając się po systemie operacyjnym. Zlecisz mu skomplikowane zadania, a on zrobi to za Ciebie.
Firmy zyskują precyzyjnego pracownika AI
Przedsiębiorstwa mogą szybciej debugować kod, tworzyć zaawansowane analizy finansowe czy zarządzać setkami stron dokumentów, znacząco redukując czas i koszty. Sonnet 4.6 sprawdzi się w złożonych workflowach, od obsługi klienta po generowanie kodu iOS.
Źródło: SmartWorld
Źródło: https://www.smartworld.it/news/claude-sonnet-4-6-anthropic-ia-gratis.html,
Grok 4.20 Muska deklasuje rywali i myśli jak zespół ekspertów
xAI Elona Muska wypuściło betę Groka 4.20, nowego modelu sztucznej inteligencji. Wstępne testy pokazują, że Grok 4.20 przewyższa konkurencję, w tym GPT-5 i Claude 4, w praktycznym kodowaniu, symulacjach i złożonych zadaniach agentowych. Elon Musk potwierdził, że obecna wersja beta to model bazowy z około 500 miliardami parametrów.
Grok 4.20 integruje system wieloagentowy, który w trybie „Heavy” może operować nawet szesnastoma niezależnymi agentami, co imituje pracę z małym zespołem ekspertów. Wstępne oceny pokazują, że model osiąga wynik ELO w przedziale 1505–1535 na platformie LMSYS/Arena, z perspektywą zajęcia pierwszego miejsca. Tryb „Heavy” zwiększy jego wydajność o dodatkowe 30 do 80 punktów ELO w trudnych zadaniach. xAI dostarcza cotygodniowe aktualizacje beta z publicznymi notatkami, jako pierwszy model w tej skali. Grok 4.20 ogranicza halucynacje dzięki wewnętrznej walidacji krzyżowej i oferuje szybsze wnioskowanie. Poprawiono również jego zdolności multimodalne, zwłaszcza w analizie obrazów i plików medycznych, co pozwala na uzyskiwanie drugich opinii. Model wykorzystuje dane z platformy X w czasie rzeczywistym, oferuje niższą cenzurę oraz wbudowaną inteligencję zespołową. Skutecznie przechodzi testy w symulacjach lotniczych i zadaniach agentowych, radząc sobie znacznie lepiej niż poprzednia wersja 4.1.
Masz cyfrowy zespół ekspertów na wyciągnięcie ręki
Użytkownik zyskuje dostęp do sztucznej inteligencji, która działa jak zgrany zespół ekspertów, a nie pojedynczy asystent. Grok 4.20 ułatwia rozwiązywanie złożonych problemów, tworzenie kodu i analizę danych z mniejszą liczbą błędów.
Firmy przyspieszą automatyzację i rozwój
Firmy uzyskają narzędzie do automatyzacji procesów i zaawansowanego kodowania. Grok 4.20 oferuje szybsze prototypowanie, iteracyjny rozwój i precyzyjniejszą analizę danych, co przekłada się na oszczędności i przyspieszenie innowacji.
Źródło
Nextbigfuture.com
Źródło: https://www.nextbigfuture.com/2026/02/xai-grok-4-20-is-a-big-improvement-practical-coding-simulations-and-real-world-agentic-tasks.html,
Francuzi zdobywają fortunę na AI: 140 mln euro za „zielone” serwery w Japonii!
Co się stało
Francuska firma 2CRSi, producent wysokowydajnych serwerów, podpisała kontrakt o wartości 140 milionów euro (około 602 miliony złotych) z kanadyjskim klientem. Firma dostarczy serwery AI na rynek japoński, odpowiadając na rosnące globalne zapotrzebowanie na moc obliczeniową dla sztucznej inteligencji. Wiosną 2026 roku rozpocznie się wdrożenie tych zaawansowanych systemów chmurowych.
Szczegóły:
Kontrakt zakłada wdrożenie serwerów Godì 1.8E2D, które wyposażono w najnowsze chipy NVIDIA B300 (Blackwell Ultra). Te maszyny osiągają wydajność inferencji przekraczającą 144 petaFLOPS. Transakcja o wartości 140 milionów euro (około 602 miliony złotych) już teraz gwarantuje 2CRSi przekroczenie rocznych prognoz, z oczekiwanym obrotem ponad 300 milionów euro (około 1,29 miliarda złotych) za bieżący rok obrotowy.
2CRSi wyróżnia się na rynku podejściem „Green IT” i zgodnością ze standardami Open Compute Project (OCP). Firma wykorzystuje technologię jednofazowego chłodzenia immersyjnego, która polega na zanurzaniu serwerów w specjalnym, dielektrycznym płynie. Płyn bezpośrednio absorbuje ciepło z komponentów, eliminując potrzebę energochłonnej klimatyzacji. To rozwiązanie obniża koszty elektryczne chłodzenia nawet o 95% i znacząco oszczędza miejsce w centrach danych. Co więcej, technologia umożliwia odzyskiwanie ciepła: płyn przekazuje je do zewnętrznego obiegu wody, która może ogrzewać budynki. Claire Chupin, odpowiedzialna za strategicznych klientów w 2CRSi, stwierdza: „Jedyny sposób, aby wdrożyć tak gęste serwery, to zmienić metodę ich chłodzenia.” Firma rywalizuje z globalnymi gigantami, ale stawia na zwinność, efektywność energetyczną swoich systemów immersyjnych oraz wysoki poziom personalizacji serwerów dla złożonych zastosowań.
AI staje się bardziej wydajna i ekologiczna
Ten kontrakt oznacza, że usługi sztucznej inteligencji, z których korzystasz, staną się bardziej wydajne i przyjazne dla środowiska. Firmy wdrażające serwery 2CRSi zyskują dostęp do potężnej mocy obliczeniowej, jednocześnie drastycznie zmniejszając zużycie energii i koszty operacyjne. Przekłada się to na stabilniejsze i tańsze usługi dla końcowego użytkownika.
2CRSi wyznacza trendy w „zielonej” infrastrukturze AI
Dla 2CRSi ten gigantyczny kontrakt umacnia jej pozycję globalnego lidera w dziedzinie wysokowydajnych i energooszczędnych serwerów AI. Firma pokazuje, że ekologiczne podejście, szczególnie poprzez inwestycje w chłodzenie immersyjne, przynosi setki milionów euro zysku i stanowi kluczową przewagę na rynku.
Źródło
ZDNET
Źródło: https://www.zdnet.fr/actualites/serveurs-dia-le-francais-2crsi-franchit-un-nouveau-cap-avec-un-contrat-de-140-millions-deuros-490469.htm,
Indie dostają nową architekturę AI: AMD i TCS łączą siły!
Co się stało
AMD i Tata Consultancy Services (TCS) 16 lutego ogłosiły rozszerzenie strategicznej współpracy. Firmy wspólnie zaprojektują infrastrukturę AI na dużą skalę, opartą na platformie AMD ‘Helios’, aby wspierać narodowe inicjatywy AI w Indiach.
Szczegóły:
Architektura ‘Helios’ działa na podzespołach AMD. Wykorzystuje procesory graficzne AMD Instinct™ MI455X GPU, procesory AMD EPYC™ ‘Venice’ nowej generacji, karty sieciowe AMD Pensando™ Vulcano NIC oraz otwarty ekosystem oprogramowania ROCm™. Platforma ma dostarczać AI na skalę całych centrów danych, tworząc tak zwane 'suwerenne fabryki AI’.
TCS, poprzez swoją spółkę HyperVault, którą założy w 2025 roku, zamierza oferować bezpieczną i niezawodną infrastrukturę AI o mocy gigawatów. Współpraca AMD i TCS dostarczy plany centrów danych gotowych na AI, które obsłużą do 200 MW mocy. Firmy będą także współpracować z dostawcami hiperskalami i przedsiębiorstwami AI, aby przyspieszyć budowę centrów danych w całych Indiach.
Dr Lisa Su, CEO AMD, podkreśliła, że ‘Helios’ zapewnia otwartą platformę AI zaprojektowaną z myślą o wydajności i elastyczności. Dodała, że AMD i TCS pomogą indyjskim firmom wdrażać AI na dużą skalę. K. Krithivasan, prezes i dyrektor generalny TCS, zaznaczył, że partnerstwo z AMD kładzie podwaliny pod pierwszą w Indiach infrastrukturę AI opartą na ‘Heliosie’. Łączy ona AI, łączność, zrównoważoną energię i zaawansowaną inżynierię centrów danych, dostarczając nowoczesne rozwiązania.
Szybciej skorzystasz z zaawansowanych usług AI
Rozwój lokalnej infrastruktury AI oznacza, że mieszkańcy Indii zyskają dostęp do nowocześniejszych usług cyfrowych. Lokalne przetwarzanie danych w kraju zwiększy bezpieczeństwo i niezależność cyfrową Indii.
Firmy AI w Indiach dostają silnik do wzrostu
Indyjskie przedsiębiorstwa AI i dostawcy hiperskalami uzyskują dostęp do zaawansowanej infrastruktury, która przyspieszy wdrażanie ich rozwiązań. Firmy mogą liczyć na szybsze skalowanie operacji, lepszą efektywność oraz wsparcie w budowie własnych, zaawansowanych centrów danych. To obniża bariery wejścia i uruchamiania projektów AI na dużą skalę.
Źródło
Kbench
Źródło: https://kbench.com/?q=node/276246,
StepFun Uwalnia Błyskawicznego AI: Step 3.5 Flash Działa Lokalnie!
Co się stało
StepFun zaprezentował Step 3.5 Flash, nowy otwarty model fundacyjny AI, który łączy zaawansowane możliwości rozumowania z wyjątkową szybkością. Model, zaktualizowany 12 lutego 2026 roku, działa wydajnie na komputerach konsumenckich, zapewniając prywatność danych. Firma promuje go jako potężne narzędzie do zadań agentowych i kodowania.
Szczegóły:
Step 3.5 Flash opiera się na architekturze Sparse Mixture of Experts (MoE). Oznacza to, że z jego 196 miliardów parametrów, model aktywuje jedynie 11 miliardów na token, oferując wydajność zbliżoną do droższych modeli komercyjnych. Model działa niezwykle szybko, generując od 100 do 300 tokenów na sekundę, a w zadaniach kodowania osiąga nawet 350 tokenów. Ta szybkość pozwala na błyskawiczne, wieloetapowe rozumowanie. Step 3.5 Flash wspiera efektywne okno kontekstowe o długości 256 tysięcy tokenów, integrując trzy warstwy Sliding Window Attention na każdą jedną warstwę pełnej uwagi, co optymalizuje zasoby. Jego kluczową cechą jest możliwość lokalnego uruchomienia na zaawansowanym sprzęcie konsumenckim, takim jak Mac Studio M4 Max czy NVIDIA DGX Spark, gwarantując pełną kontrolę nad danymi i ich prywatność.
Potężny AI na Twoim komputerze to bezpieczeństwo danych
Teraz masz dostęp do zaawansowanego AI, które działa bezpośrednio na Twoim własnym sprzęcie. Dzięki temu Twoje dane pozostają prywatne i bezpieczne, bez wysyłania ich do chmury. Model Step 3.5 Flash szybko rozwiązuje skomplikowane problemy, od rozumowania po kodowanie, oferując możliwości, które wcześniej były zarezerwowane tylko dla gigantów technologicznych.
Firmy zyskują agenta AI do zadań inżynieryjnych
Przedsiębiorstwa mogą wdrożyć Step 3.5 Flash do automatyzacji złożonych procesów, takich jak rozwój oprogramowania, analiza danych czy zarządzanie projektami. Lokalna praca modelu obniża koszty związane z infrastrukturą chmurową i zwiększa bezpieczeństwo wrażliwych informacji, dając firmom niezależność i precyzyjny silnik do innowacji.
Źródło
StepFun
Źródło: https://static.stepfun.com/blog/step-3.5-flash/,
Meta stawia na AI w WhatsApp: Nowa technologia NVIDIA chroni Twoje rozmowy!
Meta znacząco inwestuje w układy NVIDIA i wprowadzi sztuczną inteligencję do WhatsApp. Firma użyje technologii „Confidential Computing”, aby chronić prywatność rozmów podczas przetwarzania AI. Dzięki temu miliardy użytkowników dostaną nowe funkcje, a ich dane pozostaną bezpieczne.
Meta zawarła z NVIDIĄ długoterminową umowę na miliony najnowszych układów GPU Blackwell i Rubin. Te potężne procesory graficzne, wraz z budową 30 nowych centrów danych do 2028 roku (koszt: 2,4 biliona PLN), stanowią fundament dla ambitnych planów AI firmy. Kluczem do sukcesu AI w WhatsApp jest „Confidential Computing” od NVIDII. Ta technologia zaszyfruje dane nie tylko podczas przesyłania czy przechowywania, ale także w trakcie ich przetwarzania przez AI. Oznacza to, że nawet Meta czy dostawcy chmury nie uzyskają dostępu do treści Twoich wiadomości. System działa w bezpiecznym, odizolowanym środowisku sprzętowym. NVIDIA podkreśla, że technologia chroni również własność intelektualną twórców oprogramowania, zapobiegając wyciekom modeli AI. Meta, jako pierwsza firma, zastosuje procesory Grace CPU NVIDII w trybie samodzielnym. Zazwyczaj pracują one w parze z GPU, ale Meta przeznaczy je wyłącznie do wnioskowania i zadań agentowych AI. Pokazuje to, że firma rozdziela zadania: GPU zajmą się ciężkimi obliczeniami i treningiem, a CPU – logiką i wykonaniem zadań. Meta wyda do 2026 roku 540 miliardów PLN na rozwój AI, z czego dziesiątki miliardów złotych trafią do NVIDII.
Twoje rozmowy w WhatsApp zostają prywatne, mimo AI
Użyjesz nowych funkcji AI (jak asystenci czy generowanie odpowiedzi) w WhatsApp, nie martwiąc się o swoją prywatność. Technologia „Confidential Computing” uniemożliwia Meta i innym dostęp do Twoich danych nawet podczas ich przetwarzania.
Meta wyznacza standardy AI w sektorze prywatnym
Sukces Meta z „Confidential Computing” w WhatsApp stworzy wzorzec dla innych branż (np. medycznej, finansowej) wymagających najwyższej prywatności. To otworzy drzwi dla rozwoju zaawansowanych agentów AI, które efektywnie wykorzystają dedykowane procesory Grace CPU.
Źródło
Cool3c
Źródło: https://www.cool3c.com/article/246525,
Yotta inwestuje 8 mld PLN w potężny superklaster AI z Nvidią – Indie na czele regionu
Co się stało
Indyjska firma Yotta Data Services przeznacza 2 miliardy dolarów (około 8 miliardów złotych) na budowę jednego z największych superklastrów AI w Azji. Projekt, który wykorzysta ponad 20 000 procesorów Nvidia Blackwell Ultra GPU, wystartuje w sierpniu 2026 roku. Yotta stawia obiekt w Greater Noida, wspierając go operacjami z Navi Mumbai, aby zaspokoić ogromne zapotrzebowanie Indii na moc obliczeniową AI.
Szczegóły:
Yotta Data Services tworzy azjatycki superklaster AI, inwestując 2 miliardy dolarów, czyli około 8 miliardów złotych. Firma wyposaży swoje centrum w ponad 20 000 zaawansowanych procesorów graficznych Nvidia Blackwell Ultra GPU. Yotta planuje uruchomić cały kompleks w sierpniu 2026 roku. Obiekt powstaje w kampusie hyperskalowym firmy w Greater Noida, z wsparciem operacyjnym z Navi Mumbai.
Sunil Gupta, współzałożyciel i dyrektor generalny Yotty, widzi w tym projekcie odpowiedź na strategiczną zmianę popytu. Jak powiedział dla TOI, indyjski ekosystem AI zawsze miał talent, dane i startupy, ale brakowało mu mocy obliczeniowej. Ten niedobór Yotta zidentyfikowała lata temu jako potencjalne wąskie gardło. Dziś Yotta posiada około 10 000 GPU, ale Gupta uważa, że następna faza rozwoju AI będzie wymagać jeszcze intensywniejszej mocy obliczeniowej.
Podczas gdy większość branży skupia się na trenowaniu modeli, Gupta podkreśla, że inferencja – proces, w którym wytrenowany model generuje treści, prognozy i decyzje – finalnie wymaga znacznie większej infrastruktury. W miarę jak indyjskie modele dla rolnictwa, opieki zdrowotnej i edukacji osiągną masową skalę, „miliony i miliardy ludzi jednocześnie” będą z nich korzystać, potrzebując „tysięcy i tysięcy GPU wyłącznie do inferencji”. Gupta sugeruje, że Indie mogą obsługiwać dużą część regionu Azji i Pacyfiku oraz Globalnego Południa z tych centrów danych. Yotta prowadzi już rozmowy z wieloma krajami, sprawdzając, czy mogą świadczyć usługi AI z Indii.
Twoje usługi AI przyspieszą
Użytkownicy w Indiach i regionie Azji i Pacyfiku zyskają szybszy dostęp do zaawansowanych usług AI. Modele wspomagające rolnictwo, opiekę zdrowotną i edukację będą działać sprawniej, obsługując miliardy zapytań jednocześnie. To oznacza, że technologia AI trafi do znacznie szerszego grona odbiorców, poprawiając dostępność i jakość cyfrowych usług.
Indie liderem obliczeń AI w regionie
Firmy zyskają bezpośredni dostęp do ogromnej mocy obliczeniowej, co znacząco przyspieszy rozwój, trenowanie i wdrażanie własnych modeli AI. Indie umocnią swoją pozycję jako centrum innowacji AI, przyciągając globalne inwestycje i stając się kluczowym partnerem dla państw Azji i Pacyfiku w zakresie świadczenia usług AI.
Źródło
Times of India
Źródło: https://timesofindia.indiatimes.com/business/india-business/yotta-to-invest-2bn-for-ai-hub-with-top-nvidia-chips/articleshow/128531955.cms,
Ericsson, Microsoft, AWS: Czy Twój firmowy laptop 5G stanie się mądrzejszy?
Co się stało
Ericsson, wiodący dostawca technologii telekomunikacyjnych, ogłosił strategiczne partnerstwa z Microsoftem i Amazon Web Services (AWS). Firmy wprowadzają zaawansowane rozwiązania 5G dla przedsiębiorstw, które upraszczają zarządzanie laptopami i optymalizują sieci komórkowe za pomocą sztucznej inteligencji. Dodatkowo Ericsson otwiera nowe centrum badawczo-rozwojowe w Japonii.
Szczegóły:
Ericsson, we współpracy z Microsoftem, integruje zaawansowane zarządzanie laptopami 5G bezpośrednio z systemem Windows 11. To usprawnia działom IT zarządzanie, ochronę i skalowanie mobilnych flot komputerów w firmach. Rozwiązanie łączy Microsoft Intune z platformą Ericsson Enterprise 5G Connect, która wykorzystuje AI i analitykę chmurową. System automatycznie monitoruje jakość sieci, dostosowuje łączność oraz umożliwia zdalne ustalanie priorytetów 5G i wymuszanie polityk bezpieczeństwa. Lokalny agent AI na laptopach Surface 5G podejmuje inteligentne decyzje w czasie rzeczywistym. Usługa już działa w USA, Szwecji, Singapurze i Japonii, a do 2026 roku pojawi się na kolejnych rynkach, w tym w Hiszpanii, Niemczech i Finlandii.
Równocześnie Ericsson i AWS wprowadzają „agentic rApp as a Service” (rApp aaS), dostępne w AWS Marketplace. Narzędzie optymalizuje sieci za pomocą sztucznej inteligencji, która rozumuje i koordynuje procesy optymalizacji. Ułatwia to wdrażanie, skalowanie i kontrolę kosztów dla operatorów telekomunikacyjnych. Rozwiązanie oferuje interfejs języka naturalnego, pozwalając zespołom „rozmawiać” z siecią. James Crawshaw, practice leader w firmie Omdia, podkreśla: „Wielu na rynku twierdzi, że dostarcza rApps, ale tylko nieliczni wykazali udane wdrożenia na poziomie produkcyjnym z interfejsami zgodnymi z ORAN. Żaden inny dostawca nie oferuje porównywalnego rozwiązania rApp-as-a-Service.”
Dodatkowo Ericsson otwiera w Jokohamie w Japonii centrum badawczo-rozwojowe (kwiecień 2026). Będzie ono napędzać innowacje w programowalnych sieciach 5G, technologiach mobilnych nowej generacji i otwartych architekturach sieciowych, jak O-RAN.
Twój firmowy laptop 5G zadba o łączność
Jeśli pracujesz w firmie, która używa laptopów z 5G, zauważysz płynniejszą i bezpieczniejszą pracę. Twój komputer automatycznie zoptymalizuje połączenie z siecią i przełączy eSIM, bez potrzeby ręcznej konfiguracji. Twoje dane pozostaną bezpieczne dzięki automatycznemu egzekwowaniu firmowych polityk.
Firmy oszczędzą na zarządzaniu, operatorzy zyskają AI
Działy IT firm znacząco obniżą koszty i złożoność zarządzania flotą laptopów 5G, zwiększając ich bezpieczeństwo i wydajność. Operatorzy telekomunikacyjni (CSP) zyskują narzędzie do optymalizacji sieci z pomocą sztucznej inteligencji, co ułatwia wdrażanie nowych usług, poprawia skalowalność i efektywność kosztową. Nowe technologie napędzą innowacje w sieciach 5G.
Źródło
ComputerWeekly
Źródło: https://www.computerweekly.com/news/366639085/Ericsson-strikes-Microsoft-AWS-deals-for-enterprise-5G,
Nowa Zelandia: Maorysi tworzą własny AI głos, chroniąc język
Co się stało
Naukowcy z Uniwersytetu Waikato w Nowej Zelandii, pod kierunkiem profesora Te Taki Keegana, stworzyli technologię głosu AI mówiącą w dialekcie Waikato-Maniapoto języka te reo Māori. Projekt chroni lokalne dialekty i wzmacnia więź młodych Maorysów z ojczystym językiem, odpowiadając na obawy o kontrolę nad ich wiedzą i danymi. System, sfinansowany przez Google, przechodzi testy i wkrótce trafi do publicznego użytku jako „suwerenna AI”, niezależna od globalnych korporacji.
Twój język mówi twoim dialektem
Użytkownicy języka te reo Māori zyskują dostęp do technologii, która mówi ich specyficznym dialektem, co utrwala lokalne różnice językowe i wspiera naukę.
Lokalna technologia chroni przed globalnymi zagrożeniami
Projekt stanowi model dla innych społeczności, pokazując jak budować własne, godne zaufania technologie AI, chroniąc dane i tożsamość kulturową przed wpływem międzynarodowych korporacji.
Źródło
NZ Herald
Źródło: https://www.nzherald.co.nz/waikato-news/news/university-of-waikato-ai-voice-project-backs-maori-led-sovereign-ai/ZC5WDVFCYBH3XEO7WV2267PJDA/,
Oracle uzbraja AI w walce o klienta: Darmowe agenty dla firm!
Oracle wprowadza nowe agenty AI, które zintegrował ze swoimi aplikacjami Fusion Cloud. Od 19 lutego 2026 roku te inteligentne narzędzia będą wspierać działy marketingu, sprzedaży i obsługi klienta, automatyzując zadania, dostarczając prognoz i zwiększając produktywność. Firma chce pomóc przedsiębiorstwom dostarczać lepsze doświadczenia klientom i zwiększać przychody.
Agenty Oracle AI działają na infrastrukturze Oracle Cloud Infrastructure i firma wbudowała je bezpośrednio w Oracle Fusion Applications, bez dodatkowych opłat. Działają w tle, przyspieszając pracę użytkowników i wspierając ich w podejmowaniu lepszych decyzji. W marketingu agenty pomogą planować kampanie cross-sell i up-sell, precyzyjniej targetować grupy zakupowe i automatycznie tworzyć teksty reklamowe czy dobierać obrazy. Sprzedawcy zyskają wgląd w klientów, szybko wygenerują oferty i proaktywnie zarządzają odnawianiem umów. W obsłudze klienta, agenty usprawnią planowanie pracy techników, umożliwią klientom samoobsługę i przyspieszą triage zgłoszeń, analizując załączniki. Chris Leone, wiceprezes wykonawczy Oracle ds. rozwoju aplikacji, podkreśla, że firmy przechodzą od reaktywnych procesów do proaktywnych, inteligentnych działań, które budują lepsze relacje z klientami i napędzają wzrost przychodów. Firmy mogą także tworzyć własne agenty za pomocą „Oracle AI Agent Studio for Fusion Applications”.
Otrzymasz szybszą obsługę i spersonalizowane oferty
Jako klient zauważysz sprawniejszą obsługę, szybsze odpowiedzi na zapytania i bardziej trafne oferty, bo firmy lepiej poznają Twoje potrzeby.
Firmy zwiększą zyski i automatyzują kluczowe procesy
Przedsiębiorstwa korzystające z Oracle Fusion Cloud Applications zyskają wzrost produktywności, efektywniejsze zarządzanie relacjami z klientami oraz automatyzację wielu rutynowych zadań, bez ponoszenia dodatkowych kosztów za nowe agenty AI.
Źródło
PR Times
Źródło: https://prtimes.jp/main/html/rd/p/000000454.000057729.html,
Nvidia i L&T łączą siły: Indie zyskają gigantyczną infrastrukturę AI
Co się stało
Indyjski gigant inżynieryjny Larsen & Toubro (L&T) oraz amerykańska Nvidia połączyły siły. Firmy ogłosiły plany budowy ogromnej infrastruktury AI w Indiach, działając w ramach misji IndiaAI. Ta gigawatowa „fabryka” sztucznej inteligencji ma służyć rozwojowi i wdrażaniu AI w kraju.
Szczegóły:
Partnerstwo L&T z Nvidią powstaje w ramach indyjskiej misji IndiaAI. Obie firmy chcą stworzyć suwerenną i skalowalną infrastrukturę AI na gigantyczną skalę. Określenie „gigawatowa” podkreśla ogromną moc obliczeniową, jaką zapewni ten kompleks, niezbędną do trenowania złożonych modeli sztucznej inteligencji i zasilania zaawansowanych aplikacji. L&T wnosi swoje wieloletnie doświadczenie w inżynierii i budownictwie, zapewniając fizyczną realizację całego projektu. Nvidia dostarcza swój zaawansowany stos technologiczny AI, obejmujący specjalistyczne procesory graficzne (GPU), oprogramowanie i platformy, które zasilą obliczenia sztucznej inteligencji. Firmy stawiają sobie za cel umożliwienie bezpiecznego i produkcyjnego wdrażania systemów AI w kluczowych indyjskich branżach, od produkcji po usługi finansowe. Infrastruktura ma zapewnić niezależność Indii w rozwoju i wykorzystywaniu AI, jednocześnie pozycjonując kraj jako wiodącego gracza na globalnej scenie technologicznej.
Dostęp do lepszej sztucznej inteligencji
Budowa tak ogromnej infrastruktury AI w Indiach przyspieszy rozwój lokalnych rozwiązań opartych na sztucznej inteligencji. Zwiększy to dostępność i jakość usług wykorzystujących AI, z których pośrednio skorzystają użytkownicy zarówno w Indiach, jak i na świecie.
Indie nowym centrum AI dla firm
Firmy zyskują dostęp do ogromnych zasobów obliczeniowych i platform AI, co obniża bariery wejścia dla innowacyjnych start-upów i pozwala na rozwój zaawansowanych produktów. Indie umocnią swoją pozycję jako globalny hub technologiczny, przyciągając inwestycje i talent, a L&T i Nvidia zyskują kluczową pozycję na tym dynamicznie rozwijającym się rynku.
Źródło
The Economic Times
Źródło: https://economictimes.indiatimes.com/markets/stocks/news/lt-shares-in-focus-on-nvidia-partnership-to-build-indias-largest-gigawatt-scale-ai-factory/articleshow/128536753.cms,
Google wydał Gemini 3.1 Pro: Nowy potwór AI, który pokonuje rywali… ale nie wszędzie!
Google wypuścił Gemini 3.1 Pro, ulepszoną wersję swojego zaawansowanego modelu sztucznej inteligencji, udostępniając go płatnym subskrybentom Google AI Pro i Ultra. Firma przedstawia go jako ewolucję, a nie rewolucję, która ma znacząco poprawić zdolności rozumowania modelu i generowania treści.
Szczegóły
Gemini 3.1 Pro to ulepszenie modelu 3 Pro, dostarczające szczególnie lepszą wydajność w wymagających zadaniach. Google zaimplementował go na wielu platformach: developerzy dostają dostęp przez Gemini API, Google AI Studio, Gemini CLI, platformę Antigravity oraz Android Studio. Przedsiębiorstwa używają modelu przez Vertex AI i Gemini Enterprise. Indywidualni użytkownicy z planami Pro i Ultra znajdą go w aplikacji Gemini oraz w NotebookLM. Model oferuje znaczącą poprawę w zdolnościach rozumowania, osiągając 77.1 procent na benchmarku ARC-AGI-2, co podwaja wynik poprzednika. Gemini 3.1 Pro tworzy też animacje SVG z tekstowych opisów, zachowując ostrość i małe rozmiary plików. Mimo wielu zwycięstw w testach, model ustępuje konkurentom, takim jak Claude Opus 4.6, w specjalistycznych zadaniach kodowania i niektórych testach na „Humanity’s Last Exam”. Model pozostaje natywnie multimodalny, przetwarzając tekst, obrazy, dźwięk i wideo, oferując kontekst do miliona tokenów i generując do 64 000 tokenów. Google przeprowadził też obszerne testy bezpieczeństwa, pokazując, że model pozostaje poniżej krytycznych progów ryzyka.
Zapłacisz za lepsze AI, ale zyskasz nowe możliwości
Użytkownicy z płatnymi planami Google AI Pro i Ultra automatycznie zyskują dostęp do mocniejszego narzędzia AI. Otrzymujesz podwojone zdolności rozumowania i nowe funkcje, takie jak generowanie animowanych grafik SVG.
Firmy dostają zaawansowane narzędzie, ale muszą uważać na nisze
Developerzy i przedsiębiorstwa zyskują wydajniejsze narzędzie do złożonych zadań, analizy danych i projektów kreatywnych. Mogą liczyć na jego stabilność w kwestiach bezpieczeństwa, ale powinni pamiętać, że w bardzo specjalistycznych obszarach kodowania i niektórych ekspertach zadaniach, konkurencja nadal go przewyższa.
Źródło: Trending Topics
Źródło: https://trendingtopics.eu/gemini-3-1-pro-leads-most-benchmarks-but-trails-claude-opus-4-6-in-some-tasks,
Modele AI pod lupą: Hugging Face rewolucjonizuje testy dzięki społeczności!
Hugging Face właśnie wprowadził Community Evals, nową funkcję, która pozwala zbiorom danych na platformie Hub hostować własne rankingi i automatycznie zbierać wyniki ewaluacji modeli AI. To decentralizuje raportowanie i śledzenie testów, opierając się na infrastrukturze Git, zapewniając transparentność, wersjonowanie i reprodukowalność wyników.
Szczegóły
Teraz repozytoria zbiorów danych mogą zarejestrować się jako benchmarki. Po rejestracji, automatycznie zbierają i wyświetlają wyniki ewaluacji zgłoszone z całej platformy Hub. Benchmarki definiują swoje specyfikacje testowe w pliku `eval.yaml`, który bazuje na formacie Inspect AI. Opisuje on zadanie i procedurę ewaluacji, umożliwiając każdemu odtworzenie wyników. Do pierwszych dostępnych benchmarków należą MMLU-Pro, GPQA i HLE, z planami na rozszerzenie listy.
Repozytoria modeli przechowują wyniki ewaluacji w ustrukturyzowanych plikach YAML, znajdujących się w katalogu `.eval_results/`. Wyniki te pojawiają się na karcie modelu i automatycznie łączą z odpowiednimi zbiorami danych benchmarkowych. System agreguje zarówno wyniki dostarczone przez autorów modeli, jak i te proponowane poprzez otwarte pull requesty. Autorzy modeli zachowują kontrolę: mogą zamykać pull requesty lub ukrywać wyniki powiązane z ich modelami. Każdy użytkownik Hub może również zgłosić wyniki dla modelu, a system oznacza je jako pochodzące od społeczności i pozwala na linkowanie do zewnętrznych źródeł, takich jak prace naukowe czy platformy ewaluacyjne. Dzięki operacjom na Git, wszystkie zmiany w plikach ewaluacyjnych są wersjonowane, co tworzy zapis historii.
Hugging Face podkreśla, że funkcja ma na celu wyeliminowanie niespójności w wynikach testów podawanych w różnych publikacjach czy na platformach. Himanshu Kumar, edukator AI, skomentował: „Ewaluacje modeli wymagają lepszej standaryzacji, a Community Evals od Hugging Face mogą w tym pomóc.” Funkcja jest obecnie w fazie beta i nie zastępuje istniejących benchmarków, lecz ułatwia dostęp do wyników tworzonych przez społeczność.
Zyskasz przejrzystość testów modeli
Dla Ciebie, jako dewelopera czy badacza, oznacza to bardziej wiarygodne i transparentne dane o wydajności modeli. Łatwiej zweryfikujesz wyniki, a także sam aktywnie przyczynisz się do testowania, udostępniając swoje ewaluacje.
Biznes buduje zaufanie dzięki danym
Firmy zyskają lepsze narzędzie do oceny modeli AI, co przełoży się na bardziej świadome decyzje inwestycyjne i rozwojowe. Standaryzowane i publicznie weryfikowalne dane zwiększą zaufanie do porównań rynkowych i efektywność tworzenia nowych rozwiązań.
Źródło
InfoQ
Źródło: https://infoq.com/news/2026/02/hugging-face-evals,
Nvidia ma nowego rywala: Kanadyjczycy z Taalas stworzą super-szybkie czipy AI
Kanadyjski startup Taalas zebrał 169 milionów dolarów (około 676 milionów złotych) inwestycji na rozwój procesorów AI. Firma z Toronto twierdzi, że ich autorskie czipy będą działać szybciej i taniej niż obecne rozwiązania Nvidii, z planami dostarczenia zaawansowanych systemów do końca roku.
Taalas stworzył innowacyjną metodę produkcji, która osadza komponenty modeli AI bezpośrednio w krzemowych płytkach. Dzięki temu powstają procesory skrojone pod konkretne zastosowania, na przykład mniejsze wersje systemu Llama firmy Meta. Te specjalistyczne układy mają dużą ilość szybkiej pamięci SRAM zintegrowanej bezpośrednio na czipie, co przypomina filozofię projektową Groq. Prezes Taalas, Ljubisa Bajic, w wywiadzie dla Reutersa powiedział: „To twarde okablowanie częściowo daje nam prędkość”. Proces produkcji zakłada stworzenie niemal gotowego procesora w około stu warstwach, a następnie spersonalizowanie go na ostatnich dwóch metalowych warstwach. Firma współpracuje z TSMC, co pozwala im stworzyć czip dedykowany konkretnemu modelowi AI w około dwa miesiące. Dla porównania, procesor AI Blackwell firmy Nvidia wymaga około sześciu miesięcy produkcji. Obecnie Taalas produkuje czipy do mniej złożonych modeli AI, ale planuje stworzyć procesory zdolne do obsługi zaawansowanych systemów, takich jak GPT 5.2, jeszcze przed końcem roku.
Aplikacje AI będą szybsze i tańsze
Użytkownicy doświadczą szybszych i bardziej responsywnych aplikacji opartych na sztucznej inteligencji, takich jak chatboty. Nowa technologia może obniżyć koszty dostępu do zaawansowanych systemów AI, czyniąc je bardziej dostępnymi dla szerszego grona.
Nvidia zyskuje poważnego rywala, deweloperzy nową opcję
Taalas wprowadza realną konkurencję na rynku procesorów AI, oferując firmom deweloperskim alternatywę dla drogich rozwiązań Nvidii. Niższe koszty i szybsza produkcja czipów mogą przyspieszyć innowacje w sektorze AI i obniżyć bariery wejścia dla mniejszych graczy.
Źródło: Fine Day Radio 102.3 WNJD
Źródło: https://www.finedayradio.com/news/tv-delmarva-channel-33/toronto-tech-company-secures-169m-to-challenge-nvidia-with-faster-ai-chips/
