OpenAI pod ostrzałem po tragedii! Miliardy na AI, kradzieże i wojny o kontrolę.

OpenAI pod ostrzałem po tragedii! Miliardy na AI, kradzieże i wojny o kontrolę.

** Dnia 25.02.2026 OpenAI zmierzyło się z pytaniami o bezpieczeństwo po tragedii, jednocześnie rynkiem AI wstrząsnęły miliardowe inwestycje, oskarżenia o kradzieże i spory o etykę technologii.

Ten przegląd powstał w 100% automatycznie.

Chcesz taki dla swojej firmy? Wypełnij formularz w zakładce Kontakt.

🤖 Automatyzacja w praktyce

Ten przegląd powstał w 100% automatycznie. Trafił także na:

  • Listę mailingową, jako newsletter
  • Instagram
  • Grupę na Facebooku
  • LinkedIn
  • X (Twitter)
  • Youtube jako post

Oraz jako krótkie wideo na:

  • Tiktoka
  • Instagram
  • Youtube shorts

Jeśli chcesz zamówić taki przegląd newsów dla swojej firmy, wypełnij formularz w zakładce Zamów Automatyzację

A jeśli chcesz się nauczyć, jak robić takie automatyzacje, dołącz do społeczności Amatorów Automatyzacji

Szczegóły:

Disney łączy siły z OpenAI: Star Wars i Marvel w AI, a co z kasą?

Co się stało

Walt Disney Company ogłosił partnerstwo z OpenAI, liderem w dziedzinie sztucznej inteligencji. Dzięki tej umowie, ikoniczne postacie z uniwersów Star Wars, Pixar i Marvel pojawią się w generatorze wideo Sora, tworząc nowe treści AI. Firmy testują w ten sposób świeże sposoby monetyzacji kultowych bohaterów i rozszerzenia ich obecności.

Szczegóły:

Partnerstwo łączy ogromną bibliotekę postaci Disneya z szybko rosnącym rynkiem wideo generowanego przez AI. OpenAI zyskuje dostęp do ikonicznych bohaterów Star Wars, Pixara i Marvela, których teraz użyje w swoim zaawansowanym generatorze wideo Sora. Disney z kolei, pod wodzą CEO Josha D’Amaro, stawia na gaming, AI i interaktywność, szukając nowych dróg monetyzacji swojej własności intelektualnej. Firma testuje, jak liczyć się będzie licencjonowanie postaci, kontrola nad kreacjami i zarządzanie integralnością marki. Disney już teraz rygorystycznie egzekwuje swoje prawa do własności intelektualnej, a ta współpraca stanowi kolejny element tej strategii. Chodzi o to, aby postacie Disneya pojawiały się częściej w życiu ludzi, niekoniecznie przez jednorazowe opłaty licencyjne, lecz przez szerszą dystrybucję i zaangażowanie fanów. Disney przewiduje, że platforma AI pomoże testować tańsze koncepcje treści i nowe formaty marketingowe, wspierając serwisy streamingowe, produkty konsumenckie oraz parki rozrywki. Jednak pojawiają się też pytania o ryzyka prawne i reputacyjne, jeśli generowane przez użytkowników treści będą słabo kontrolowane. To także potencjalnie zwiększy konkurencję dla oryginalnych produkcji Disneya.

Twoje ulubione postacie ożywają w AI, ale czy stracą magię?

Jako fan, zobaczysz znacznie więcej treści z udziałem swoich ulubionych bohaterów z uniwersum Disneya, Star Wars czy Marvela, tworzonych przez AI. Firmy testują, jak wprowadzić te postacie do codziennego życia, np. poprzez narzędzia w aplikacjach Disneya, doświadczenia w parkach czy produkty konsumenckie. Kluczowe pytanie brzmi, czy Disney utrzyma pełną kontrolę nad jakością i spójnością tych treści, by uniknąć „zmęczenia franczyzą” i nie rozmyć wartości swoich ikon.

Nowe źródła zysku dla Disneya, ale z ryzykiem rozmycia marki

Dla Disneya to szansa na wygenerowanie nowych strumieni przychodów z licencji AI oraz wzmocnienie marketingu dla istniejących biznesów, jak streaming czy parki. Integracja z OpenAI może obniżyć koszty produkcji treści i stworzyć innowacyjne formaty reklamowe. Jednak firma musi uważnie zarządzać ryzykiem prawnym i reputacyjnym, zwłaszcza w obliczu potencjalnego „rozmycia” wizerunku marek, jeśli treści generowane przez AI będą słabo kontrolowane lub niska jakość. To także test, jak inni giganci medialni odpowiedzą na taką współpracę.

Źródło

Simply Wall St

Źródło: https://finance.yahoo.com/news/disney-openai-deal-tests-monetization-170911767.html,

Pentagon grozi gigantowi AI po etycznej wojnie o technologię

Amerykański gigant AI, Anthropic, wywołał konflikt z Pentagonem, kwestionując etykę użycia swojej technologii w misjach wojskowych. Wojsko USA grozi zerwaniem lukratywnej umowy wartej 200 milionów dolarów (około 800 milionów złotych), ponieważ firma domaga się prawa weta w sprawie sposobu wykorzystania swoich modeli sztucznej inteligencji. Spór podgrzewa debatę o roli Doliny Krzemowej w obronności kraju.

Anthropic w zeszłym roku wygrało kontrakt z Pentagonem, aby dostarczać model Claude dla zastosowań obronnych. Firma jednak teraz sprzeciwia się, kiedy wojsko coraz częściej wdraża AI w operacjach, którym sprzeciwiają się jej menedżerowie. Chcą prawa weta, by ograniczyć użycie technologii, podczas gdy urzędnicy obrony nalegają, że narzędzia AI pozyskane przez wojsko muszą być dostępne do „wszelkich zgodnych z prawem celów”, w tym rozwoju broni, prac wywiadowczych i operacji na polu bitwy. Pentagon rozważa oznaczenie Anthropic jako „ryzyka łańcucha dostaw”. Sprawa wykracza poza zwykłe nieporozumienie kontraktowe; to głęboka dyskusja o tym, kto powinien decydować o etyce wojny i pokoju w XXI wieku. System amerykański powierza obronę narodową wybranym liderom, którzy odpowiadają przed wyborcami, nie prywatnym kontraktorom.

Kto ustali zasady wojny w erze AI?

Dla każdego obywatela ten spór oznacza, że toczy się fundamentalna debata o przyszłości wykorzystania sztucznej inteligencji w wojsku. Wynik tego konfliktu zdecyduje, czy o etycznych granicach stosowania zaawansowanych technologii militarnych będą decydować prywatne korporacje, czy demokratycznie wybrane rządy, co wpłynie na bezpieczeństwo i międzynarodowe relacje.

Firmy technologiczne stają przed etycznym dylematem

Dla biznesu technologicznego konflikt Anthropic z Pentagonem jest ostrzeżeniem. Firmy, które budują technologie podwójnego zastosowania, muszą jasno określić swoje stanowisko w kwestii etyki militarnej. Anthropic ryzykuje utratę lukratywnych kontraktów i reputacji, stając się „ryzykiem łańcucha dostaw”. Inni dostawcy AI mogą wykorzystać tę sytuację, oferując swoje rozwiązania bez narzucania ograniczeń, ale ryzykują oburzenie społeczne.

Źródło: The Washington Times

Źródło: https://www.washingtontimes.com/news/2026/feb/24/anthropics-ethics-rules-tests-americas-big-tech-military-partnership/,

Meta wykłada 400 miliardów złotych: Koniec monopolu Nvidii?

Co się stało

Meta ogłosiła 24 lutego 2026 roku gigantyczną transakcję z producentem chipów AMD. Za 100 miliardów dolarów (około 400 miliardów złotych) Meta kupi miliony chipów AI, zabezpieczając swoją przyszłość i uniezależniając się od dominacji Nvidii. Transakcja może też dać firmie Marka Zuckerberga 10% udziałów w AMD.

Szczegóły:

Meta kupuje od AMD miliony chipów przeznaczonych dla sztucznej inteligencji. Umowa, której wartość wynosi 100 miliardów dolarów (około 400 miliardów złotych), ma na celu dywersyfikację łańcucha dostaw giganta mediów społecznościowych. Przez ostatnie trzy lata Meta pozostawała zależna od Nvidii, która miała pełną kontrolę nad cenami kluczowych komponentów. Według Gila Lurii, szefa badań technologicznych w D.A. Davidson, Meta w ten sposób unika „wąskiego gardła” w rozwoju AI. W zamian za kontrakt, AMD oferuje Meta potencjalne 10% udziałów w firmie, jeśli jej akcje osiągną określoną wartość – co stało się możliwe tuż po ogłoszeniu porozumienia. Profesor historii międzynarodowej Chris Miller z Tufts University zauważa, że AMD kontroluje mniej niż 10% rynku chipów AI. Daje to sens decyzji AMD, by oddać część firmy dla tak dużego klienta jak Meta. NVIDIA dysponuje znacznie bardziej rozwiniętym ekosystemem oprogramowania wokół swoich chipów niż AMD.

Twoje aplikacje AI będą stabilniejsze

Dla przeciętnego użytkownika produktów Meta, takich jak Facebook czy Instagram, ta transakcja nie przynosi natychmiastowych zmian. W dłuższej perspektywie, uniezależnienie się Meta od jednego dostawcy chipów AI może jednak przełożyć się na stabilniejsze działanie i szybszy rozwój funkcji opartych na sztucznej inteligencji w Twoich ulubionych aplikacjach.

Meta umacnia pozycję, AMD rośnie w siłę

Meta zabezpiecza swój łańcuch dostaw, zmniejszając zależność od Nvidii i osłabiając jej siłę przetargową. To daje firmie większą kontrolę nad kosztami i dostępnością kluczowych komponentów AI, a także potencjalny zysk z 10% udziałów w AMD. Dla AMD transakcja jest dużym impulsem, zapewniając jej gigantycznego klienta, znaczący wzrost wartości akcji oraz większą konkurencyjność na rynku chipów AI.

Źródło

Marketplace

Źródło: https://www.marketplace.org/story/2026/02/24/metas-100-billion-deal-buys-it-freedom-from-nvidia-dependence,

UiPath jednoczy siły dla przyszłości agentowej AI!

Co się stało

UiPath, globalny lider w automatyzacji agentowej, dołączył do Agentic AI Foundation (AAIF) jako Złoty Członek. Firma będzie współpracować z liderami branży, aby tworzyć otwarte standardy i innowacje dla agentowej sztucznej inteligencji. To posunięcie ma przyspieszyć wdrażanie tej technologii w przedsiębiorstwach.

Agentowa AI stanie się pewniejsza w użyciu

Jeśli korzystasz z usług opartych na sztucznej inteligencji w pracy lub w życiu codziennym, masz szansę na bezpieczniejsze i bardziej spójne doświadczenia. Dzięki wspólnym standardom agenty AI będą lepiej ze sobą współpracować, zapewniając stabilniejsze i bardziej przewidywalne działanie.

Biznes zyska na ustandaryzowanej transformacji

Firmy, które planują wdrożyć agentową AI, zyskają gotowe, bezpieczne i zgodne z przepisami rozwiązania. Otworzy to drogę do łatwiejszej integracji i skalowania zaawansowanych systemów AI, minimalizując ryzyko i koszty związane z brakiem spójnych protokołów.

Źródło

Business Wire

Źródło: https://www.businesswire.com/news/home/20260224634922/en/UiPath-Joins-Agentic-AI-Foundation-AAIF-to-Advance-Interoperability-in-Agentic-AI-Adoption,

SambaNova Uderza w Nvidia: Ich nowy chip 5x szybszy z AI 10 bilionów parametrów!

SambaNova zaprezentowała swój najnowszy chip SN50, który oferuje pięciokrotnie większą szybkość niż Nvidia Blackwell oraz trzykrotnie wyższą przepustowość. Pozwoli to zasilać modele AI agentów o ponad 10 bilionach parametrów. Japoński SoftBank wdroży SN50 jako pierwszy, a Intel dołączył do rundy finansowania firmy, inwestując 350 milionów dolarów.

Szczegóły

SambaNova zaprojektowała SN50, aby sprostać ogromnemu zapotrzebowaniu na moc obliczeniową w erze sztucznej inteligencji. Chip wykorzystuje architekturę Reconfigurable Data Unit (RDU), która tworzy niestandardowe potoki przetwarzania danych, zarządzając przepływem informacji efektywniej niż tradycyjne procesory. SN50 zawiera zaawansowaną architekturę pamięci, łączącą 64 GB pamięci HBM, 432 MB SRAM oraz od 256 GB do 2 TB pamięci DDR5. Dzięki temu obsługuje największe modele AI, w tym te z 10 bilionami parametrów. SambaNova podkreśla, że modele przebywające w HBM i SRAM mogą być przełączane w milisekundach – to kluczowa funkcja dla obciążeń agentowych, które często zmieniają modele. W porównaniu do swojego poprzednika, SN40, nowy chip zapewnia pięciokrotnie więcej mocy obliczeniowej na akcelerator i czterokrotnie większą przepustowość sieci. Firma sprzedaje SN50 w gotowych zestawach SambaRacks, które mieszczą do 16 chipów. Raki można łączyć w klastry do 256 SN50, zapewniając ogromną moc obliczeniową. SambaRacks zużywają średnio 20 kW mocy, co pozwala na chłodzenie powietrzem zamiast cieczą. „AI to już nie wyścig na największy model,” powiedział Rodrigo Liang, współzałożyciel i CEO SambaNovej. „Prawdziwa rywalizacja dotyczy tego, kto uruchomi całe centra danych z agentami AI, którzy odpowiadają natychmiast, nigdy się nie zawieszają i robią to w kosztach, które zmieniają AI z eksperymentu w najbardziej dochodowy silnik w chmurze.”

Firmy zyskają błyskawiczne AI

Firmy używające zaawansowanych modeli AI mogą spodziewać się znaczącego przyspieszenia działania swoich systemów. Nowy chip SambaNovej pozwala na niemal natychmienne przełączanie między różnymi modelami AI, co sprawia, że agenci AI pracują płynniej i odpowiadają bez opóźnień. To realnie wpływa na jakość obsługi klienta czy efektywność procesów biznesowych.

SambaNova rzuca wyzwanie gigantom

Wprowadzenie SN50 intensyfikuje konkurencję na rynku chipów AI, bezpośrednio rzucając wyzwanie dominującym graczom, takim jak Nvidia. Nowe partnerstwo z Intelem i wdrożenie przez SoftBank pokazują rosnące zaufanie do technologii SambaNovej. To tworzy nowe możliwości dla dostawców infrastruktury AI i może obniżyć koszty uruchamiania dużych modeli AI w chmurze, zmieniając AI w bardziej dochodowy sektor.

Źródło

HPCwire

Źródło: https://www.hpcwire.com/2026/02/24/sambanova-eyes-10-trillion-parameter-models-for-agentic-ai-with-new-chip/,

Wspólny standard dla AI: Apollo GraphQL dołącza do gigantów technologii

Co się stało

Apollo GraphQL, lider w orkiestracji API, 24 lutego 2026 r. dołączyło do Agentic AI Foundation (AAIF) jako członek Silver. Firma będzie z Anthropic, Block i OpenAI rozwijać otwarte standardy integracji aplikacji AI z interfejsami programowania (API), koncentrując się na protokole Model Context Protocol (MCP).

Szczegóły:

Agentic AI Foundation, której Apollo GraphQL dołącza jako członek Silver, zrzesza technologicznych gigantów takich jak Anthropic, Block i OpenAI. Razem opracowują Model Context Protocol (MCP) – otwarty standard, który łączy aplikacje AI z narzędziami, danymi i innymi programami. Apollo, już od maja 2025 roku, aktywnie rozwija ten ekosystem, oferując Apollo MCP Server. Serwer pozwala firmom wystawiać interfejsy GraphQL jako narzędzia MCP bez pisania specjalnego kodu. Zapewnia to bezpieczną i wydajną integrację AI, z wbudowanym monitoringiem, przewidywalnym wykonaniem i egzekwowaniem zasad. Matt DeBergalis, CEO Apollo GraphQL, podkreśla: „Organizacje, które dziś sięgają po otwarte standardy i architekturę, jutro rozwiną się najszybciej i skorzystają najbardziej.” Apollo od dawna inwestuje w MCP, organizując ponad 20 wydarzeń dla deweloperów i współtworząc grupę roboczą AI w GraphQL Foundation. Firmy takie jak Block, Wiz i Yahoo już używają rozwiązań Apollo do tworzenia agentów AI, co pokazuje praktyczne zastosowanie nowych standardów. Bradley Axen z Block, Inc. potwierdza, że otwarte standardy zdefiniują połączenia między agentami AI a korporacyjnymi API.

Sztuczna inteligencja będzie działać spójniej i bezpieczniej

Dzięki otwartym standardom, aplikacje AI będą ze sobą lepiej współpracować. Użytkownicy zauważą to w płynniejszych interakcjach i większej niezawodności narzędzi opartych na sztucznej inteligencji.

Firmy szybciej wdrożą AI, obniżając koszty integracji

Otwarty standard Model Context Protocol (MCP) dostarcza firmom spójne ramy do budowania agentów AI. To przyspiesza rozwój, redukuje złożoność integracji i minimalizuje ryzyko uzależnienia od jednego dostawcy, oferując większą elastyczność i niższe koszty wdrożenia.

Źródło

PR Newswire

Źródło: https://www.prnewswire.com/news-releases/apollo-graphql-joins-agentic-ai-foundation-to-advance-open-standards-for-agent-to-api-integration-302694667.html,

Amazon Ads: AI za darmo stworzy Twoje reklamy w kilka godzin!

Amazon Ads wprowadza „Creative Agent”, nowe narzędzie AI, które automatycznie generuje profesjonalne reklamy wideo i displayowe. System ułatwia reklamodawcom w Wielkiej Brytanii, Francji, Niemczech, Włoszech i Hiszpanii produkcję skutecznych kampanii, eliminując wysokie koszty i długi czas realizacji. Narzędzie tworzy kompletne kreacje reklamowe od pomysłu, przez scenariusze, obrazy i animacje, aż po lektora i muzykę.

Szczegóły:

Tradycyjnie stworzenie zaawansowanej reklamy pochłaniało dziesiątki tysięcy złotych i tygodnie pracy. Creative Agent odwraca tę sytuację; działa jak partner kreatywny, który przygotowuje dopracowane, profesjonalne reklamy w zaledwie kilka godzin, całkowicie bez dodatkowych opłat. Reklamodawcy wchodzą do Creative Studio, klikają „czat” i rozmawiają z inteligentnym asystentem AI. Ten prowadzi badania produktów i grup docelowych, generuje pomysły, rozwija koncepcje w formie storyboardów, a finalnie produkuje gotowe reklamy. Narzędzie wykorzystuje dogłębną wiedzę Amazona o handlu, analizując sygnały zakupowe klientów, dane ze stron produktów i sklepów marek. Hannes Detjen, założyciel Remazing, potwierdza, że narzędzie usprawniło adaptację materiałów kampanii OMRON na różne rynki europejskie, sprawnie zarządzając niuansami językowymi i kulturowymi. Reklamodawcy zachowują pełną kontrolę, edytując i informując AI na każdym etapie procesu twórczego. Creative Agent tworzy reklamy dla formatów takich jak Amazon DSP, Sponsored Display, Sponsored Brands i Streaming TV.

Otrzymasz więcej spersonalizowanych reklam

Dla Ciebie, jako użytkownika, oznacza to prawdopodobnie więcej i lepiej dopasowanych reklam. Firmy uzyskają narzędzie do masowej, szybkiej i spersonalizowanej komunikacji. Zobaczysz kreacje, które dokładniej odpowiadają Twoim preferencjom i zainteresowaniom, opartym na danych z platformy Amazon.

Firmy obniżą koszty i przyspieszą kampanie

Biznes zyskuje niespotykane dotąd możliwości tworzenia zaawansowanych kreacji reklamowych, niezależnie od budżetu. Małe i średnie przedsiębiorstwa teraz mogą konkurować jakością reklam z gigantami, oszczędzając dziesiątki tysięcy złotych i tygodnie pracy. To pozwala na szybkie testowanie różnych kampanii i błyskawiczne skalowanie działań marketingowych.

Źródło

About Amazon Team

Źródło: https://www.aboutamazon.eu/news/innovation/amazon-ads-launches-creative-agent-new-agentic-ai-tool-that-creates-professional-quality-ads,

Microsoft zmusza do Copilota i nowych komputerów? FTC reaguje!

Microsoft agresywnie integruje swojego asystenta AI, Copilota, z Windowsem 11 i Microsoft 365, czym irytuje użytkowników i zwraca uwagę amerykańskiej Federalnej Komisji Handlu (FTC). Klienci zgłaszają, że Microsoft sztucznie wymusza AI, ignorując ich wybory, a koniec wsparcia dla Windows 10 dodatkowo zmusza ich do drogich zmian. FTC bada, czy te działania naruszają przepisy antymonopolowe.

Microsoft przedstawia Copilota jako rewolucję w produktywności, płynnie działającą w Windows 11 i Microsoft 365. Użytkownicy jednak skarżą się na głęboką integrację AI, która utrudnia, a nawet uniemożliwia wyłączenie asystenta. Firma liczy licencje z włączonym AI zamiast faktycznego użycia, co napędza strategię forsowania Copilota. Wielu klientów biznesowych i indywidualnych uważa, że Microsoft przedkłada wdrażanie AI nad aktualizacje bezpieczeństwa i wydajności.

Wszystko to zbiega się z końcem wsparcia dla popularnego Windows 10. Aby otrzymać aktualizacje bezpieczeństwa i korzystać z Copilota, wielu użytkowników musi przejść na Windows 11. Nowy system ma jednak wyższe wymagania sprzętowe, jak np. moduł TPM 2.0 czy nowsze procesory. To często oznacza, że aby spełnić warunki, użytkownicy, firmy i szkoły zmuszone są kupić nowe komputery. Generuje to dodatkowe koszty rzędu kilku tysięcy złotych za sprzęt, bez wyraźnych korzyści poza pakietem Copilota.

FTC prowadzi dochodzenie antymonopolowe. Agencja sprawdza, czy Microsoft nie łączy nielegalnie produktów i usług, by dusić konkurencję. Śledczy analizują, czy firma wykorzystuje pakiety Office 365 do wzmocnienia swojej chmury Azure, pobiera opłaty za rezygnację z usług lub celowo tworzy bariery kompatybilności. Regulatorzy badają, czy integracja Copilota z podstawowymi produktami Microsoftu jest nową formą „cyfrowego wiązania”, która umacnia dominację rynkową i tworzy bariery dla konkurencyjnych rozwiązań AI.

Pamiętaj o wydatkach na nowy sprzęt

Jeśli nadal używasz Windows 10, wkrótce utracisz wsparcie i aktualizacje bezpieczeństwa. Aby przejść na Windows 11 i uzyskać dostęp do zintegrowanego Copilota, najprawdopodobniej musisz kupić nowy komputer, co stanowi spory wydatek. Jednocześnie musisz pogodzić się z obecnością asystenta AI, którego wyłączenie okazuje się trudne.

Microsoft ryzykuje walkę z regulatorami

Dla Microsoftu strategia agresywnego wdrażania Copilota to próba umocnienia pozycji w wyścigu AI. Firma ryzykuje jednak sankcje od FTC, która bada, czy jej działania naruszają przepisy antymonopolowe, potencjalnie tworząc monopol i dławiąc konkurencję na rynku sztucznej inteligencji.

Źródło

InfoWorld

Źródło: https://www.infoworld.com/article/4136202/microsofts-copilot-push-irks-customers-stirs-ftc.html,

Sztuczna inteligencja przejmuje księgowość: Nowy jednorożec Basis zbiera 400 milionów złotych!

Co się stało

Basis, platforma AI tworząca inteligentnych agentów dla księgowych, właśnie zebrała 400 milionów złotych (100 milionów dolarów) w rundzie finansowania Serii B. Dzięki tej inwestycji firma osiągnęła wycenę 4,6 miliarda złotych (1,15 miliarda dolarów), dołączając do grona „jednorożców”. Inwestycję poprowadził Accel, wsparły ją GV, Lloyd Blankfein oraz dotychczasowi wspólnicy, w tym Khosla Ventures.

Szczegóły:

Branża księgowa zmaga się z niedoborem talentów, rosnącymi oczekiwaniami klientów, spadkiem marż i wypaleniem zawodowym. Biura rachunkowe odrzucają zlecenia z powodu przeciążenia. Basis odpowiada na te wyzwania, oferując agentów AI, którzy automatyzują złożone procesy w usługach księgowych, podatkowych i audytowych.

Firma współpracuje już z około 30% z 25 największych firm księgowych, wdrażając agentów „długiego horyzontu”. Agenci autonomicznie wykonują wieloetapowe zadania księgowe przez długi czas. Działają w tle, koordynują procesy i dostarczają gotowe opracowania do weryfikacji przez człowieka. Basis niedawno zaprezentował pierwszego agenta AI, który samodzielnie ukończył pełne zeznanie podatkowe 1065.

Basis ściśle współpracuje z wiodącymi laboratoriami modeli fundamentalnych, aby dostarczać zaawansowane możliwości AI dostosowane do specyfiki księgowości. Miles Clements, partner w Accel, uważa, że Basis „głęboko myśli o architekturze i wdrażaniu prawdziwych agentów, którzy wykonują prawdziwą pracę w realnej gospodarce”. Vinod Khosla z Khosla Ventures stwierdza, że Basis „już radykalnie zmienia sposób pracy w najlepszych firmach, generując 20-50% wzrost efektywności”. Nowy kapitał pozwoli Basis przyspieszyć rozwój platformy, powiększyć zespoły inżynierów i specjalistów od uczenia maszynowego oraz tworzyć jeszcze bardziej zaawansowanych agentów. Matt Harpe, CEO i współzałożyciel Basis, podkreśla, że ich celem jest wyposażenie księgowych w najwyższej jakości, dokładne narzędzia AI, które zwiększają efektywność, umożliwiają oferowanie usług o wyższej wartości i poprawiają jakość życia księgowych.

Twoje biuro rachunkowe działa szybciej i taniej

Jako klient biura rachunkowego możesz spodziewać się szybszej obsługi i potencjalnie niższych kosztów, ponieważ księgowi używają narzędzi AI do automatyzacji rutynowych, czasochłonnych zadań. Agenci AI zajmują się powtarzalnymi procesami, zwalniając ludzkich specjalistów do bardziej złożonych analiz i doradztwa, co przekłada się na wyższą jakość usług.

Księgowi zyskują oddech, a firmy rachunkowe rosną

Dla firm księgowych Basis oferuje rozwiązanie problemów z niedoborem personelu i wypaleniem zawodowym. Automatyzacja zwiększa efektywność o 20-50%, pozwalając na przyjęcie większej liczby klientów i świadczenie usług o wyższej wartości. To narzędzie poprawia jakość pracy księgowych, zwalniając ich od żmudnych zadań i umożliwiając skupienie się na strategicznych aspektach zawodu.

Źródło

Pulse 2.0

Źródło: https://pulse2.com/basis-100-million-raised-at-1-15-billion-valuation-for-ai-agent-platform-serving-accountants/,

Inception Mercury 2: AI Myśli Szybciej i Taniej niż Giganci!

Co się stało

Amerykański startup Inception Labs właśnie wypuścił Mercury 2, pierwszy na świecie model AI do rozumowania językowego, który działa w oparciu o architekturę dyfuzji. Nowa technologia oferuje niespotykaną szybkość i znacznie niższe ceny, rzucając wyzwanie czołowym graczom na rynku. Model jest już dostępny poprzez API, a firmy mogą ubiegać się o wczesny dostęp.

Szczegóły

Mercury 2 zmienia sposób, w jaki AI przetwarza tekst. Zamiast analizować słowo po słowie, jak robią to konwencjonalne modele, nowy system Inception równocześnie ulepsza wiele bloków tekstu. Firma porównuje to do pracy redaktora, który poprawia cały szkic naraz, a nie każde słowo osobno. Ta metoda przekłada się na imponującą wydajność: Mercury 2 osiąga 1009 tokenów na sekundę na procesorach Nvidia Blackwell, przy opóźnieniu wynoszącym zaledwie 1,7 sekundy. Dla porównania, Gemini 3 Flash potrzebuje 14,4 sekundy, a Claude Haiku 4.5 aż 23,4 sekundy, by wykonać podobne zadania rozumowania. Inception twierdzi, że jakość wyników Mercury 2 dorównuje wiodącym modelom zoptymalizowanym pod kątem szybkości.

Ceny również robią wrażenie. Za milion tokenów wejściowych zapłacisz 0,25 dolara (około 1 zł), a za milion tokenów wyjściowych 0,75 dolara (około 3 zł). To dwukrotnie taniej za wejście i czterokrotnie taniej za wyjście niż Gemini 3 Flash. W porównaniu do Claude Haiku 4.5, Mercury 2 jest czterokrotnie tańszy za wejście i ponad dwa i pół razy tańszy za wyjście. Model obsługuje okno kontekstowe 128K, użycie narzędzi i wyjście w formacie JSON. Inception celuje w firmy, które potrzebują bardzo niskich opóźnień, takie jak twórcy asystentów głosowych, narzędzi do kodowania czy systemów wyszukiwania. Wcześniej Inception Labs zebrało 50 milionów dolarów od inwestorów, w tym Microsoftu, Nvidii i Snowflake.

Twoje Aplikacje Będą Działać Błyskawicznie

Użytkownicy doświadczą znaczącej poprawy w szybkości działania aplikacji bazujących na AI. Głosowi asystenci odpowiedzą natychmiast, narzędzia do kodowania zareagują szybciej, a wyszukiwarki dostarczą wyniki błyskawicznie, eliminując frustrujące opóźnienia.

Firmy Oszczędzą na Rachunkach za AI i Zyskają Szybkość

Przedsiębiorstwa, szczególnie te polegające na niskich opóźnieniach, zyskają dostęp do potężnego modelu rozumowania językowego, który znacznie obniża koszty operacyjne AI. Mogą tworzyć bardziej responsywne i wydajne produkty, co daje im przewagę konkurencyjną na rynku.

Źródło

The Decoder

Źródło: https://the-decoder.com/inception-launches-mercury-2-the-first-diffusion-based-language-reasoning-model/,

# Tragedia w Tumbler Ridge: OpenAI wiedziało o zagrożeniu, Kanada bez prawa!

## Co się stało

OpenAI osiem miesięcy przed masową strzelaniną w Tumbler Ridge wiedziało o niepokojących interakcjach użytkownika Jesse Van Rootselaar z ChatGPT. Jego konto system flagował za scenariusze przemocy z użyciem broni, co doprowadziło do jego zbanowania, ale firma nie powiadomiła policji. 10 lutego Van Rootselaar zabił osiem osób, w tym swoją matkę i 11-letniego brata, po czym popełnił samobójstwo, a kanadyjski rząd przyznaje, że brakuje mu odpowiednich regulacji AI.

## Szczegóły

System automatycznej recenzji OpenAI oznaczył konto Jesse Van Rootselaar za angażowanie się w scenariusze przemocy z bronią. Kilkunastu pracowników zdawało sobie z tego sprawę; niektórzy opowiadali się za kontaktem z policją. Zamiast tego, firma zbanowała konto, uznając, że nie spełniało wówczas „wymaganego progu” dla zgłoszenia organom ścigania. Jean-Christophe Bélisle-Pipon, profesor etyki zdrowia na Simon Fraser University, podkreśla, że tragedia ujawnia brak kanadyjskich ram prawnych dla przypisania odpowiedzialności firmom AI posiadającym informacje mogące zapobiec przemocy.

Czatboty AI, w przeciwieństwie do mediów społecznościowych, oferują prywatne interakcje, gdzie użytkownicy często ujawniają obawy i fantazje o przemocy. W praktyce klinicznej lekarze mają obowiązek ostrzegania o zagrożeniu, nawet jeśli wiąże się to z naruszeniem poufności (zasada Tarasoffa). OpenAI próbowało odwzorować ten standard, lecz oceny te przeprowadzali inżynierowie oprogramowania i moderatorzy treści, nie specjaliści w dziedzinie zdrowia psychicznego. Kanadyjskie ustawy, takie jak Artificial Intelligence and Data Act (Bill C-27) i Online Harms Act (Bill C-63), które regulowałyby te kwestie, upadły w styczniu 2025 roku. Obecnie w Kanadzie obowiązuje jedynie dobrowolny kodeks postępowania bez mocy prawnej. Minister Evan Solomon określił sytuację jako „głęboko niepokojącą”, ale konkretne działania dopiero rozważają.

Prywatność kontra bezpieczeństwo

Kanadyjska ustawa o ochronie danych osobowych (Personal Information Protection and Electronic Documents Act) zawiera wyjątek awaryjny pozwalający na ujawnienie informacji bez zgody, gdy zagrożone jest życie lub zdrowie. Przepis powstał jednak dla jednoznacznych kryzysów, nie dla prawdopodobnych wskaźników zagrożenia generowanych przez AI. Ta dwuznaczność sprawia, że zagraniczne korporacje często wybierają bezczynność, aby uniknąć ryzyka prawnego.

## Co to zmienia:

Państwo nie chroni przed zagrożeniami AI

Kanadyjscy użytkownicy AI nie mają jasnych gwarancji bezpieczeństwa. Firmy takie jak OpenAI decydują samodzielnie, czy zgłosić zagrożenie, bez wiążących przepisów czy niezależnej instytucji, która oceniłaby potencjalne ryzyko. Twoje prywatne interakcje z czatbotami, nawet te sugerujące przemoc, mogą pozostać poza kontrolą organów ścigania, jeśli firma AI uzna, że nie spełniają jej wewnętrznych „progów”.

Firmy AI działają w prawnej próżni

Firmy rozwijające AI w Kanadzie nie mają jasnych wytycznych prawnych dotyczących zgłaszania niebezpiecznych treści, co zwalnia je z odpowiedzialności. Brak regulacji oznacza, że mogą działać według własnych wewnętrznych polityk, co ogranicza ich odpowiedzialność prawną, ale jednocześnie pozwala na niekontrolowane podejmowanie kluczowych decyzji dotyczących bezpieczeństwa publicznego. Stwarza to ryzyko, że priorytetem będzie uniknięcie kłopotów prawnych, a nie zapobieganie realnym zagrożeniom.

Źródło

The Tyee

Źródło: https://thetyee.ca/Analysis/2026/02/25/Tumbler-Ridge-Tragedy-AI-Regulation-Failure/,

OpenAI odpala reklamy w ChatGPT! Giganci handlu już testują

Co się stało

OpenAI rozpoczęło 9 lutego testy reklam w ChatGPT w Stanach Zjednoczonych. Firma współpracuje z gigantami handlu, takimi jak Target, Adobe, Williams-Sonoma i Albertsons, by zintegrować reklamy kontekstowe. Reklamy pojawiają się u zalogowanych, dorosłych użytkowników, korzystających z darmowej wersji oraz planów Go.

Szczegóły:

OpenAI uruchomiło program pilotażowy reklam, aby sprawdzić, jak kontekstowe treści reklamowe integrują się z konwersacjami w ChatGPT. Firmy testują reklamy pojawiające się obok odpowiedzi czatbota. Target, poprzez swój biznes mediów detalicznych Roundel, dostarcza reklamy partnerów, używając technologii, by docierać do klientów w nowych punktach styku zakupowych. Adobe pomaga markom zrozumieć, jak dostarczać istotne doświadczenia reklamowe, dbając jednocześnie o zaufanie użytkowników. Laura Alber, prezes i dyrektor generalna Williams-Sonoma, podkreśla: „Współpracując z OpenAI w tym wczesnym teście, rozwijamy nowe podejście reklamowe, które angażuje konsumentów w przemyślany, kontekstowy sposób, zgodny z ich oczekiwaniami co do interakcji z platformą”. Albertsons, sieć spożywcza, skupiła swoje pierwsze reklamy na Walentynki, wyświetlając je przy wyszukiwaniach takich jak „najlepsze kwiaty na Walentynki”. Jennifer Saenz, dyrektor handlowa Albertsons Cos., zaznaczyła: „Skupiamy się na reklamach, które wzbogacają podróż klienta, zamiast ją przerywać”. Firmy dążą do tego, aby reklamy w ChatGPT uzupełniały interakcje użytkowników, zamiast je zakłócać, zmieniając sposób odkrywania i kupowania produktów.

Reklamy wplecione w rozmowy

Jeśli używasz darmowej wersji ChatGPT lub planu Go, zobaczysz reklamy. Firma projektuje je tak, aby pasowały do kontekstu rozmowy i nie przeszkadzały w interakcji, co jest nowym doświadczeniem reklamowym, mającym wspierać proces zakupowy.

Marki zyskują precyzyjny kanał reklamowy

Firmy zyskują nowy, precyzyjny kanał dotarcia do klientów. Mogą wyświetlać produkty i usługi w kluczowych momentach zakupowych, gdy użytkownik aktywnie poszukuje informacji, co otwiera drogę dla kontekstowego marketingu opartego na AI.

Źródło

PYMNTS.com

Źródło: https://www.pymnts.com/artificial-intelligence-2/2026/openai-taps-retail-giants-for-first-wave-of-chatgpt-ad-testing/,

Steerling-8B: AI w końcu wytłumaczy każde swoje słowo

Co się stało

Guide Labs 23 lutego 2026 roku wypuścił Steerling-8B, pierwszy model językowy o 8 miliardach parametrów, który potrafi wyjaśnić każde wygenerowane słowo. Model wskazuje na kontekst wejściowy, zrozumiałe dla ludzi koncepcje oraz dane treningowe, z których czerpie wiedzę. Osiąga wysoką wydajność, zużywając przy tym mniej zasobów niż konkurencyjne modele.

Zyskujesz AI, której możesz zaufać

Jako użytkownik otrzymujesz dostęp do sztucznej inteligencji, która potrafi klarownie wyjaśnić, skąd czerpie informacje i dlaczego podaje konkretną odpowiedź, zwiększając Twoje zaufanie i bezpieczeństwo w interakcji z zaawansowanymi algorytmami.

Firmy zyskują precyzyjną kontrolę nad AI

Dla biznesu oznacza to narzędzie do precyzyjnego sterowania zachowaniem AI, szybkie dostosowanie jej do nowych wymagań bez ponownego trenowania oraz pełną transparentność w kwestii pochodzenia danych, co redukuje ryzyko i koszty rozwoju.

Źródło

Guide Labs Team

Źródło: https://www.guidelabs.ai/post/steerling-8b-base-model-release/,

Gigant AI oskarża: Chińskie firmy kradną technologię Claude’a na masową skalę

Anthropic oskarża trzech chińskich gigantów AI – DeepSeek, Moonshot AI i MiniMax – o kradzież technologii z ich flagowego modelu Claude. Firmy użyły ponad 24 tysięcy fałszywych kont i 16 milionów rozmów, aby systematycznie „destylować” (wykradać) wiedzę z amerykańskiego AI. To działanie wzmacnia spór USA z Chinami o eksport chipów.

Chińskie laboratoria celowo atakowały kluczowe funkcje Claude’a, takie jak rozumowanie agentowe, współpraca z narzędziami i tworzenie kodu. DeepSeek, znany z modelu R1, wykonał 150 tysięcy interakcji, aby poprawić logikę i stworzyć mechanizmy omijające cenzurę. Moonshot AI przeprowadził 3,4 miliona rozmów, czerpiąc wiedzę o widzeniu komputerowym i analizie danych. MiniMax dokonał 13 milionów interakcji, synchronizując swój model z najnowszymi funkcjami Claude’a tuż po ich premierze. Chociaż „destylacja” to legalna metoda przenoszenia wiedzy między modelami, Anthropic podkreśla, że używanie jej do kopiowania zamkniętych modeli to po prostu kradzież. Podobnie OpenAI oskarżyło DeepSeek o te same praktyki. Anthropic twierdzi, że tak masowa operacja wymagała zaawansowanych chipów, co wzmacnia argumenty za ograniczeniami eksportu technologii do Chin. Dmitri Alperovitch z Silverado Policy Accelerator jasno mówi: Chińskie postępy AI często bazują na kradzieży amerykańskiej technologii, co uzasadnia blokadę chipów. Amerykańskie modele posiadają wbudowane zabezpieczenia, chroniące przed użyciem AI do broni biologicznej czy cyberataków. Niestety, kradzione modele często usuwają te mechanizmy bezpieczeństwa. Takie „rozbrojone” AI, udostępnione publicznie lub trafiające w niepowołane ręce, stwarzają ryzyko cyberataków czy dezinformacji na niespotykaną skalę.

Skradzione AI stwarza nowe zagrożenia

Modele AI stworzone przez kradzież nie mają wbudowanych zabezpieczeń, które chronią przed ich złym użyciem (np. do dezinformacji czy cyberataków). To zwiększa ryzyko, że ktoś użyje takiej AI do szkodliwych celów, zagrażając bezpieczeństwu publicznemu.

Ograniczenia eksportu chipów do Chin wzrosną

Amerykańskie firmy tracą miliardy na badaniach i rozwoju, gdy ich technologia jest kradziona. Incydent daje Waszyngtonowi mocny argument do dalszego zaostrzenia kontroli eksportu zaawansowanych chipów AI do Chin, chroniąc strategiczną przewagę technologiczną USA.

Źródło: INSIDE

Źródło: https://www.inside.com.tw/article/40720-anthropic-accuses-chinese-ai-labs-of-mining-claude-as-us-debates-ai-chip-exports,

Volkswagen stawia na Xpeng: autonomiczne auta VW już w 2026!

Volkswagen podjął decyzję: w Chinach użyje technologii autonomicznej jazdy VLA 2.0 firmy Xpeng. Dzięki tej współpracy, niemieckie samochody osiągną poziom 4 autonomii już w 2026 roku, reagując na opóźnienia własnej spółki VW, Cariad. To stworzy podział: auta na dwóch rynkach będą rozwijać się w różnym tempie.

Szczegóły

System VLA 2.0 Xpenga znacząco przyspiesza reakcje autonomicznych samochodów. Standardowe systemy AI widzą, interpretują słownie, a potem działają. Xpeng odrzuca tę „tłumaczeniową” fazę. Ich architektura „Widzenie-Token Niejawny-Działanie” tworzy wewnętrzny język maszyny, przechodząc bezpośrednio od obrazu do akcji. To sprawia, że system jest 7,5 raza szybszy i zużywa mniej energii. Aby wytrenować to zaawansowane AI, Xpeng zebrał 100 milionów klipów wideo – co odpowiada 65 tysiącom lat ludzkiej jazdy. Sztuczna inteligencja samodzielnie uczy się praw fizyki obserwując świat. Potrafi rozpoznawać gesty policjantów czy przewidywać zmiany świateł, nawet jeśli nigdy wcześniej nie widziała dokładnie takiego skrzyżowania. Volkswagen nie tylko integruje oprogramowanie, ale także układy scalone. Samochody otrzymają potężny chip Turing AI Xpenga, oferujący 750 TOPS mocy obliczeniowej na jeden procesor. To trzy razy więcej niż najnowsze układy Nvidia Thor. Dla Volkswagena to pragmatyczny, choć trudny krok. Zapewnia to osiągnięcie poziomu 4 autonomii w ich autach do 2026 roku, znacznie poprawiając płynność jazdy w skomplikowanych obszarach, nawet o 13 razy. He Xiaopeng, CEO Xpenga, nazwał to „momentem DeepSeek” dla autonomicznej jazdy, nawiązując do firmy, która osiągnęła przełom z ułamkiem typowych zasobów.

Autonomiczne VW tylko w Chinach?

Jako klient w Polsce czy Europie nadal poczekasz na autonomiczne samochody VW. Firma, wybierając chińską technologię dla Chin, stworzyła dwie linie produktowe, co spowalnia globalny rozwój własnych systemów.

VW nadrabia zaległości i buduje nową zależność

Volkswagen zyskuje zaawansowaną technologię, która pozwala mu nadrobić opóźnienia i wprowadzić autonomiczne auta na rynek chiński już w 2026 roku. Jednocześnie, firma ryzykuje uzależnieniem od Xpenga w kluczowych obszarach i pogłębia wewnętrzne podziały z Cariad.

Źródło

Frandroid

Źródło: https://www.frandroid.com/marques/xpeng/2987125_cest-confirme-volkswagen-adopte-la-technologie-de-conduite-autonome-vla-2-0-de-xpeng,

OpenAI stawia na Cerebras: Producent chipów znów celuje w giełdę

Co się stało

Cerebras Systems, producent chipów AI, ponownie złożył wniosek o poufny debiut giełdowy w USA. Firma liczy na rosnące zapotrzebowanie na infrastrukturę obliczeniową dla sztucznej inteligencji. Ważnym impulsem jest również kluczowa umowa o dostawę z OpenAI.

AI, z której korzystasz, przyspieszy

Inwestycje w nową infrastrukturę i rywalizacja producentów chipów AI sprawią, że narzędzia sztucznej inteligencji, których używasz, staną się potężniejsze i szybsze.

Cerebras rośnie w siłę

Umowa z OpenAI i perspektywa giełdowego debiutu wzmacniają pozycję Cerebras Systems. Firma zyskuje finansowanie i kluczowego partnera, co umożliwia jej intensywny rozwój i silniejszą rywalizację na dynamicznym rynku chipów AI.

Źródło

Digitimes Asia

Źródło: https://www.digitimes.com/news/a20260224VL202/cerebras-ai-chip-openai-ipo-infrastructure.html,

NVIDIA atakuje rynek PC: Intel i MediaTek już na pokładzie!

NVIDIA, gigant chipów AI, wraca na rynek konsumenckich układów PC. Firmy Dell i Lenovo wprowadzą laptopy z jej chipami jeszcze w tym roku, a pierwsze modele z układem NVIDIA-MediaTek zobaczymy już w pierwszej połowie. Firma chce zacieśnić więzi z klientami w erze sztucznej inteligencji.

NVIDIA projektuje układy typu System-on-Chip (SoC), które połączą procesor centralny (CPU) ze słynnymi, potężnymi procesorami graficznymi (GPU). Te ostatnie to kluczowe elementy napędzające modele sztucznej inteligencji. Chociaż SoC to standard w smartfonach, jak iPhone, w komputerach PC dopiero zyskuje popularność. NVIDIA chce dostarczyć PC-tom wydajność i długi czas pracy na baterii typowy dla urządzeń mobilnych, nie rezygnując z mocy. Jensen Huang, szef NVIDII, określa je jako „niskopoborowe, ale bardzo mocne”.

NVIDIA nawiązuje dwie kluczowe współprace. Pierwsza, ogłoszona rok temu, dotyczy Intela – firmy połączą procesory centralne Intela z grafiką i technologiami AI NVIDII. Druga, którą prezes Huang ujawnił podczas styczniowej wizyty na Tajwanie, to partnerstwo z tajwańskim MediaTekiem. Razem opracują układy SoC oparte na architekturze ARM.

Producenci tacy jak Dell i Lenovo już tworzą modele PC z układami NVIDIA-MediaTek. Pierwsze komputery z tym chipem zobaczymy w pierwszej połowie tego roku. Analitycy podkreślają, że laptopy staną się lżejsze, cieńsze i zaoferują dłuższą pracę na baterii. To pozwoli sprzętowi z Windowsem rywalizować bezpośrednio z najnowszymi MacBookami Apple. Jason Tsai, wicedyrektor tajwańskiej firmy badawczej Digitimes, wyjaśnia: „To nie tylko dostarczanie konkretnych chipów czy wytwarzanie lepszych komponentów, ale także kwestia głębszej integracji NVIDII w ekosystem PC nowej generacji.”

Laptopy staną się lżejsze i pracują dłużej

Użytkownik zyska dostęp do lżejszych, cieńszych laptopów z dłuższym czasem pracy na baterii. Komputery z systemem Windows dogonią lub nawet przegonią MacBooks Apple pod względem wydajności i energooszczędności, oferując płynniejsze działanie aplikacji AI.

Rywalizacja zaostrza się na rynku PC

NVIDIA, lider w dziedzinie AI, umacnia swoją pozycję, wchodząc na rynek konsumenckich PC. Intel utrzymuje dominację w 70% rynku Windows, ale musi inkorporować technologie NVIDII. MediaTek zyskuje nowego partnera i duży rynek dla swojej architektury ARM. Producenci PC, jak Dell i Lenovo, dostają nowe narzędzia do efektywnej rywalizacji z Apple, oferując bardziej innowacyjne produkty. NVIDIA buduje długoterminowe relacje z konsumentami w erze AI, zamiast gonić za szybkim zyskiem.

Źródło: WSJ

Źródło: https://tw.stock.yahoo.com/news/wsj-%E8%BC%9D%E9%81%94%E5%86%8D%E6%AC%A1%E9%80%B2%E8%BB%8D%E6%B6%88%E8%B2%BBpc%E6%99%B6%E7%89%87%E5%B8%82%E5%A0%B4-%E6%94%9C%E6%89%8B%E8%8B%B1%E7%89%B9%E7%88%BE%E8%88%87%E8%81%AF%E7%99%BC%E7%A7%91-035226449.html,

AI generuje całe światy 3D z jednego zdjęcia – World Labs zebrało miliard dolarów!

Co się stało

World Labs, startup pod wodzą „matki chrzestnej AI” Fei-Fei Li, pozyskał miliard dolarów (około 4 miliardy złotych) nowych funduszy. Firma rozwija Marble, zaawansowany model AI, który tworzy całe, spójne światy 3D z jednego zdjęcia lub prostej komendy tekstowej. Giganci tacy jak NVIDIA, AMD i Autodesk wspierają ten projekt, widząc w nim przyszłość generowania przestrzeni wirtualnych.

Stwórz własny świat 3D z fotki

Na razie firma nie podała cen dostępu do Marble, ale technologia otwiera drzwi dla każdego, kto marzy o tworzeniu gier, wizualizacji architektonicznych czy spersonalizowanych światów VR. Jeden obraz lub opis tekstowy wystarczy, by wygenerować całą wirtualną przestrzeń, radykalnie obniżając próg wejścia w produkcję 3D.

Rewolucja w przemyśle i rozrywce

Firmy z sektorów takich jak robotyka, film, gry i inżynieria zyskują możliwość błyskawicznego tworzenia złożonych środowisk do symulacji, treningu AI czy produkcji wizualnej. To przyspiesza rozwój, redukuje koszty i otwiera nowe perspektywy rynkowe.

Źródło

Gizmodo Japan

Źródło: https://www.gizmodo.jp/2026/02/world-labs-marble.html,

Nvidia troi moc AI: Tajemnica w 4 bitach

Nvidia potroiła moc obliczeniową AI. Firma wprowadziła technologię NVFP4 (4-bitowe obliczenia zmiennoprzecinkowe) w swoich procesorach graficznych Blackwell. Wyniki testów MLPerf potwierdziły trzykrotnie szybsze trenowanie i wnioskowanie sztucznej inteligencji.

Nvidia opracowała NVFP4, nowy standard obliczeniowy dla swoich procesorów graficznych, który od teraz pracuje w układach Blackwell. Technologia NVFP4, czyli 4-bitowe obliczenia zmiennoprzecinkowe, redukuje rozmiar danych. Dzięki temu procesory GPU liczą je szybciej i efektywniej. To pozwoliło firmie osiągnąć do 15 petaflopsów mocy obliczeniowej na jednym procesorze Blackwell Ultra, co oznacza trzykrotny skok w porównaniu do poprzedniego standardu FP8. Firma potwierdziła te wyniki w międzynarodowych testach MLPerf. System GB300 NVL72, wyposażony w 512 procesorów Blackwell Ultra, przeszedł wstępne trenowanie olbrzymiego modelu AI Llama 3.1 405B w zaledwie 64.6 minuty. To niemal dwukrotnie szybciej niż wcześniejszy system GB200 NVL72, który używał FP8. NVFP4 usprawnia również wnioskowanie AI. Testy z modelem DeepSeek-R1 (671 miliardów parametrów) pokazały większą przepustowość tokenów i krótszy czas odpowiedzi. Nvidia zapowiedziała też kolejną generację procesorów – Rubin. Te układy mają być 3.5 raza szybsze w trenowaniu i 5 razy wydajniejsze we wnioskowaniu niż obecne Blackwell Ultra, wszystko dzięki NVFP4.

Zyskasz szybsze i inteligentniejsze aplikacje AI

Jako użytkownik zobaczysz, jak narzędzia AI, takie jak chatboty czy generatory obrazów, działają sprawniej. Modele będą szybciej rozumieć Twoje zapytania i precyzyjniej generować odpowiedzi. Firmy, które używają AI, szybciej wprowadzą nowe funkcje i ulepszenia.

Firmy AI przyspieszą rozwój i obniżą koszty

Dla przedsiębiorstw rozwijających i używających AI to ogromna zmiana. Mogą trenować duże modele w ułamku dotychczasowego czasu i kosztów. Szybciej wprowadzają innowacje, uzyskując przewagę konkurencyjną. Mniejsze zużycie energii podczas obliczeń to także niższe rachunki za prąd i bardziej ekologiczne operacje.

Źródło

inews24.com

Źródło: https://www.inews24.com/view/1941854,

OpenAI przyspiesza podbój firm: sojusz z gigantami doradztwa

Co się stało

OpenAI od 24 lutego 2026 roku współpracuje z czterema czołowymi firmami konsultingowymi. Celem jest masowe wdrożenie jej platformy AI Frontier w przedsiębiorstwach. Ten ruch ma znacząco przyspieszyć integrację sztucznej inteligencji w biznesie, zwiększając innowacyjność i efektywność operacyjną.

Więcej AI w Twojej pracy i usługach

Jako klient, zauważysz szybszą obsługę i nowe rozwiązania od firm. Jako pracownik, możesz zyskać inteligentne narzędzia usprawniające pracę lub spotkasz się z większą automatyzacją zadań.

Firmy zyskują szybką ścieżkę do AI

Przedsiębiorstwa łatwiej wdrożą zaawansowaną sztuczną inteligencję OpenAI, co przyspieszy ich cyfrową transformację i zwiększy konkurencyjność. Partnerstwo z firmami doradczymi zmniejsza ryzyko wdrożenia i ułatwia integrację AI, prowadząc do większej efektywności i innowacji.

Źródło

NextBigWhat

Źródło: https://nextbigwhat.com/2026/02/24/openai-teams-up-with-consulting-firms-to-boost-enterprise-ai-adoption/,

Trump torpeduje ochronę dzieci przed AI w stanach

Co się stało

Biały Dom, kierowany przez Prezydenta Donalda Trumpa, aktywnie blokuje stanowe próby regulacji sztucznej inteligencji, zwłaszcza w zakresie ochrony nieletnich. Administracja naciska na Florydę i Utah, aby wycofały swoje projekty ustaw, dążąc do ustanowienia jednolitego, federalnego standardu. Biały Dom argumentuje, że stanowe przepisy szkodzą firmom technologicznym i podnoszą poprzeczkę dla narodowych ram regulacyjnych AI.

* Dla Ciebie: Słabsze zabezpieczenia przed AI dla dzieci

Słabsze zabezpieczenia dla dzieci przed szkodliwymi treściami generowanymi przez AI stają się prawdopodobne, ponieważ federalne standardy mogą okazać się mniej rygorystyczne niż te proponowane przez stany.

* Dla Biznesu: Łatwiejsze życie dla firm AI

Firmy AI mogą liczyć na jednolite i potencjalnie łagodniejsze federalne przepisy, co ułatwi im ekspansję oraz obniży koszty zgodności z prawem w całych Stanach Zjednoczonych.

Źródło

The Daily Signal

Źródło: https://www.dailysignal.com/2026/02/23/scoop-white-house-working-against-florida-attempt-to-limit-ai-for-minors-seeking-federal-solution/,

OpenAI na dywaniku w Ottawie: Czy AI mogło powstrzymać strzelaninę?

Co się stało

Minister ds. Sztucznej Inteligencji Kanady, Evan Solomon, wezwał przedstawicieli OpenAI do Ottawy. Powód? Firma miesiące wcześniej zbanowała konto sprawcy masowej strzelaniny w Tumbler Ridge, Jesse Van Rootselaara, za niepokojące treści. Pomimo tego, OpenAI nie zawiadomiło policji przed tragicznymi wydarzeniami z 10 lutego.

Szczegóły:

W czerwcu OpenAI zablokowało konto Jesse Van Rootselaara na platformie ChatGPT. Powodem były niepokojące posty, które zawierały scenariusze przemocy z użyciem broni, jak doniósł „The Wall Street Journal”. Firma wyjaśniła, że aktywność na koncie nie osiągnęła wówczas progu, który wymagałby powiadomienia organów ścigania, ponieważ nie zidentyfikowała „wiarygodnego ani bezpośredniego planowania” zbrodni.

Tragedia wydarzyła się 10 lutego, kiedy Van Rootselaar zabiła swoją matkę i przyrodniego brata. Następnie udała się do lokalnej szkoły średniej, gdzie zamordowała pięciu uczniów i asystentkę edukacyjną, po czym odebrała sobie życie. OpenAI skontaktowało się z Królewską Kanadyjską Policją Konną (RCMP) dopiero po strzelaninie.

Minister Solomon wyraził głębokie zaniepokojenie i zażądał spotkania z „zespołem ds. bezpieczeństwa” OpenAI, aby uzyskać wyjaśnienia dotyczące protokołów bezpieczeństwa firmy oraz progów eskalacji, które prowadzą do zgłaszania spraw policji. Profesor Alan Mackworth z Uniwersytetu Kolumbii Brytyjskiej, ekspert ds. bezpieczeństwa AI, podkreślił, że wiele zawodów, jak nauczyciele czy lekarze, ma „obowiązek zgłaszania” podejrzanych przypadków zagrożenia. Uważa, że podobne wymogi powinny obciążać firmy technologiczne, w tym te z branży sztucznej inteligencji.

AI pod presją: Kiedy system ma alarmować?

Incydent w Tumbler Ridge pokazał, że firmy AI staną przed wyzwaniem ustalenia jasnych kryteriów, kiedy powinny reagować na potencjalne zagrożenia identyfikowane przez ich algorytmy. Dla użytkowników oznacza to potencjalnie mniejszą prywatność, gdy algorytmy będą monitorować treści pod kątem bezpieczeństwa, co może prowadzić do zgłoszeń do służb, nawet bez jasnego dowodu.

Obowiązek zgłaszania zmienia zasady dla gigantów AI

Branża sztucznej inteligencji może spodziewać się silniejszej presji regulacyjnej, aby wprowadzić prawny „obowiązek zgłaszania” podejrzanych aktywności. Dla firm AI, takich jak OpenAI, to zwiększy koszty operacyjne i wymagać będzie rozbudowy mechanizmów monitoringu i współpracy z organami ścigania, ale może także zwiększyć zaufanie społeczne do ich platform.

Źródło

CBC News

Źródło: https://www.cbc.ca/news/politics/open-ai-summoned-ottawa-tumbler-ridge-9.7103281,

Google blokuje OpenClaw: Koniec darmowego dostępu do Gemini dla części użytkowników!

Google ograniczyło dostęp do swojej platformy „vibe coding” Antigravity dla użytkowników korzystających z otwartego agenta AI OpenClaw. Firma podjęła te kroki od weekendu 23 lutego, zarzucając „złośliwe użycie”, które przeciążało system i pozwalało na nadmierne pobieranie tokenów Gemini.

## Szczegóły

Google DeepMind, właściciel zaawansowanych modeli AI Gemini oraz platformy Antigravity, podjął decyzję o odcięciu dostępu użytkownikom, którzy łączyli swoje konta Gmail z agentem OpenClaw. Ci użytkownicy uzyskiwali więcej tokenów Gemini poprzez platformy trzecie, takie jak OpenClaw, co według Google znacząco pogorszyło jakość usług dla innych klientów Antigravity. Varun Mohan, inżynier Google DeepMind i były CEO Windsurf, napisał na X, że firma zauważyła „masowy wzrost złośliwego użycia”, który obniżył jakość usług. Google pracuje nad przywróceniem dostępu części zablokowanych, choć podkreśla, że muszą oni dostosować się do warunków użytkowania. Spółka nie zamierza trwale banować integracji z platformami trzecimi, a jedynie uregulować ich użycie. Sytuacja nabiera dodatkowego kontekstu, gdyż tydzień przed decyzją Google, twórca OpenClaw, Peter Steinberger, dołączył do OpenAI, głównego rywala Google. To posunięcie Google jest również strategicznym cięciem dostępu narzędzia wspieranego przez OpenAI do swoich zaawansowanych modeli.

Agentów AI czeka era „zamkniętych ogrodów”

Google zamyka otwarty dostęp dla agentów AI, co ogranicza ich integrację z innymi modelami.

Użytkownicy, którzy dotychczas łączyli OpenClaw z Antigravity, stracili dostęp. Google twierdzi, że nie banuje całkowicie kont, lecz odcina jedynie dostęp do Antigravity. Oznacza to, że jeśli używasz OpenClaw do zadań związanych z Google, będziesz musiał szukać alternatywnych rozwiązań lub poczekać, aż Google znajdzie sposób na bezpieczne połączenie, zgodne z ich zasadami. Koniec z swobodnym „przynoszeniem własnego agenta”.

Firmy muszą przemyśleć strategię AI

Incydent pokazuje kruchość polegania na zewnętrznych agentach i konieczność myślenia o lokalnych rozwiązaniach.

Dla przedsiębiorstw poleganie na integratorach zewnętrznych, jak OpenClaw, wiąże się z ryzykiem. Nawet klienci płacący około 1000 złotych miesięcznie (250 USD) za wersję „Ultra” stracili dostęp. Firmy muszą teraz priorytetowo traktować ramy agentów działające lokalnie lub w prywatnych chmurach. Koniec „luki tokenowej” oznacza, że przyszłe skalowanie agentów wymagać będzie bezpośrednich, droższych umów API zamiast subsydiowanych miejsc konsumenckich. Zaleca się również oddzielenie środowisk deweloperskich AI od głównych systemów identyfikacji korporacyjnej.

Źródło

VentureBeat

Źródło: https://venturebeat.com/orchestration/google-clamps-down-on-antigravity-malicious-usage-cutting-off-openclaw-users,

GitHub Copilot żegna GPT-5 i Claude Opus 4.1! Witajcie nowe modele AI

Co się stało

GitHub ogłosił, że od 17 lutego nie wspiera już modeli AI Claude Opus 4.1 od Anthropic oraz GPT-5 i GPT-5-Codex od OpenAI w swojej usłudze Copilot. Zastępuje je nowszymi wersjami: Claude Opus 4.6, GPT-5.2 i GPT-5.2-Codex. Ta zmiana ma zapewnić programistom dostęp do wydajniejszych narzędzi generowania kodu.

Szczegóły:

GitHub oficjalnie ogłosił deprecjację modeli Claude Opus 4.1 od Anthropic oraz GPT-5 i GPT-5-Codex od OpenAI, które dotychczas zasilały jego usługę Copilot. Od 17 lutego firma zastępuje je nowszymi i bardziej zaawansowanymi wersjami: Claude Opus 4.6, GPT-5.2 oraz GPT-5.2-Codex. Ta zmiana wpływa przede wszystkim na użytkowników pakietu Copilot Enterprise. Administratorzy tych kont muszą ręcznie aktywować nowe modele za pośrednictwem panelu zarządzania. Po tej operacji programiści korzystający z VS Code oraz Copilot Chat na platformie GitHub.com zyskają możliwość wyboru zaktualizowanych narzędzi. GitHub podkreśla, że użytkownicy nie muszą usuwać dotychczasowych, wycofanych modeli. W razie pytań lub wątpliwości, firma zachęca użytkowników GitHub Enterprise do kontaktu ze swoimi account managerami, którzy wyjaśnią wszelkie szczegóły dotyczące migracji i wsparcia. Polityka GitHub ma zapewnić płynne przejście na nowsze technologie, które oferują ulepszone możliwości w generowaniu kodu i wspomaganiu pracy programistów.

Programiści zyskują inteligentniejsze wsparcie AI

Programiści korzystający z GitHub Copilot Enterprise odczują bezpośrednią poprawę w generowaniu kodu i interakcjach z Copilot Chat. Dzięki nowym modelom AI, takim jak Claude Opus 4.6 czy GPT-5.2, otrzymują dostęp do bardziej precyzyjnych i wydajnych sugestii, co usprawnia ich codzienną pracę i przyspiesza procesy kodowania.

Administratorzy kontrolują innowacje, firmy zyskują wydajność

Dla przedsiębiorstw używających GitHub Copilot Enterprise zmiana oznacza konieczność aktywacji nowych modeli przez administratorów. To daje firmom pełną kontrolę nad wprowadzaniem innowacji. Zastosowanie nowszych modeli AI przekłada się na zwiększoną produktywność zespołów deweloperskich i szybszy rozwój oprogramowania.

Źródło

CodeZine

Źródło: https://codezine.jp/news/detail/23433,

Google Gemini 3.1 Pro zaskakuje: bije rekordy. Co zrobi DeepSeek?

Co się stało

Google DeepMind niedawno wypuścił Gemini 3.1 Pro, swój nowy flagowy model sztucznej inteligencji. Model ustanowił rekordowe wyniki w wielu zaawansowanych testach porównawczych, co podnosi poprzeczkę w globalnym wyścigu AI. Ten ruch intensyfikuje rywalizację, szczególnie z chińskim DeepSeek.

Szczegóły:

Google DeepMind potwierdził, że Gemini 3.1 Pro, jego najnowszy model AI, ustanowił rekordowe wyniki w wielu zaawansowanych testach porównawczych. Ta premiera podnosi poprzeczkę w globalnym wyścigu sztucznej inteligencji, bezpośrednio wyzywając konkurentów. W szczególności, analitycy rynku zastanawiają się nad odpowiedzią ze strony chińskiego DeepSeek, który również intensywnie rozwija swoje technologie. Chociaż konkretne detale techniczne, takie jak mechanizmy działania czy plany cenowe, pozostają nieujawnione w publicznie dostępnych fragmentach, sam fakt pobicia rekordów wskazuje na postęp w możliwościach generowania tekstu, rozumienia kontekstu i rozwiązywania złożonych problemów przez sztuczną inteligencję.

Sztuczna inteligencja stanie się jeszcze lepsza

Użytkownicy w Polsce i na świecie zobaczą jeszcze bardziej zaawansowane możliwości AI, zarówno w wyszukiwarkach, jak i aplikacjach. Poprawi się rozumienie języka naturalnego i precyzja odpowiedzi, co przełoży się na płynniejszą interakcję z technologią.

Wyścig AI przyspiesza, nowe standardy rynkowe

Firmy technologiczne muszą intensywniej inwestować w rozwój AI, aby utrzymać konkurencyjność. Gemini 3.1 Pro ustanawia nowy punkt odniesienia, zmuszając rywali do szybkiej reakcji i innowacji, co może przełożyć się na dynamiczny rozwój nowych produktów i usług na rynku.

Źródło

Digitimes

Źródło: https://digitimes.com/news/a20260224PD207/ai-llm-deepseek-google-gemini-performance.html,

Intel stawia na SambaNovę i rzuca wyzwanie Nvidii

Co się stało

Intel zawiązał strategiczne partnerstwo z SambaNova Systems i zainwestował w startup 350 milionów dolarów (około 1,4 miliarda złotych) w nowej rundzie finansowania. Ten ruch ma wzmocnić pozycję Intela na rynku chipów AI i rzucić wyzwanie dominacji Nvidii. Po ogłoszeniu, akcje Intela wzrosły o 6 procent.

Szczegóły:

Intel wszedł w wieloletnie porozumienie z SambaNovą, zakładające, że startup będzie używał procesorów serwerowych i produktów graficznych Intela. Obie firmy połączą siły w działaniach sprzedażowych i marketingowych, aby przyspieszyć wdrażanie rozwiązań AI. Intel, który zainwestował w SambaNovę już w 2019 roku, teraz rozszerza swoje zaangażowanie. Dyrektor generalny Intela, Lip-Bu Tan, będący jednocześnie prezesem SambaNovej, wycofał się z procesu decyzyjnego dotyczącego tej transakcji, by uniknąć konfliktu interesów. Ruch ten odzwierciedla strategiczne dążenie Intela do poszerzenia swojego ekosystemu AI i odebrania części rynku Nvidii, która obecnie dominuje w akceleratorach AI. Intel notuje także silny popyt na swoje rozwiązania do centrów danych, zwłaszcza w Chinach, co stanowi ponad 20% jego przychodów. Firma odnotowała stabilizację udziału w rynku CPU na poziomie 56,64% i zapowiedziała nowy procesor Core Ultra 9 290K Plus, oferujący obiecujące wzrosty wydajności. Dodatkowo, jej ambicje w zakresie produkcji chipów („foundry”) zyskują wiarygodność, a kwartalne wyniki za Q4 2025 przekroczyły oczekiwania, z przychodem 15,4 miliarda dolarów (około 61,6 miliarda złotych) i zyskiem na akcję 0,35 dolara (około 1,4 złotego).

Lepsze AI w twojej technologii?

Choć partnerstwo dotyczy dużych graczy technologicznych, ostatecznie może przełożyć się na szybszy rozwój i dostępność bardziej zaawansowanych funkcji AI w urządzeniach i usługach, z których korzystasz na co dzień. Mimo że bezpośrednio nie odczujesz zmiany w portfelu ani nowych reklam, pośrednio zyskasz dostęp do bardziej innowacyjnych rozwiązań.

Intel wzmacnia pozycję na rynku AI

Partnerstwo z SambaNovą to strategiczny krok Intela w kierunku zmniejszenia dominacji Nvidii w sektorze chipów AI. Firmy inwestujące w rozwiązania oparte na sztucznej inteligencji zyskają szerszy wybór dostawców i potencjalnie niższe ceny dzięki zwiększonej konkurencji. To także sygnał, że Intel mocno stawia na segment AI, co może wpłynąć na dynamikę całego rynku technologicznego.

Źródło

FX Leaders

Źródło: https://www.fxleaders.com/news/2026/02/24/intc-stock-heads-to-50-as-intel-bets-on-sambanova-to-challenge-nvidia-chip-dominance/

Podobne wpisy

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *