Miliardy na AI, czy to koniec pewnej ery? Giganci walczą o dominację, a świat staje na głowie!

Miliardy na AI, czy to koniec pewnej ery? Giganci walczą o dominację, a świat staje na głowie!

** Dnia 05.03.2026 miało miejsce globalne przyspieszenie rozwoju sztucznej inteligencji, z gigantycznymi inwestycjami w infrastrukturę i nowymi, otwartymi modelami AI. Jednocześnie rynek zmaga się z wyzwaniami etycznymi, geopolitycznymi i problemami z łańcuchem dostaw.

Ten przegląd powstał w 100% automatycznie.

Chcesz taki dla swojej firmy? Wypełnij formularz w zakładce Kontakt.

🤖 Automatyzacja w praktyce

Ten przegląd powstał w 100% automatycznie. Trafił także na:

  • Listę mailingową, jako newsletter
  • Instagram
  • Grupę na Facebooku
  • LinkedIn
  • X (Twitter)
  • Youtube jako post

Oraz jako krótkie wideo na:

  • Tiktoka
  • Instagram
  • Youtube shorts

Jeśli chcesz zamówić taki przegląd newsów dla swojej firmy, wypełnij formularz w zakładce Zamów Automatyzację

A jeśli chcesz się nauczyć, jak robić takie automatyzacje, dołącz do społeczności Amatorów Automatyzacji

Szczegóły:

Nvidia zamyka kurek dla OpenAI i Anthropic? Miliardy to ostatnia transza

Co się stało

Jensen Huang, prezes Nvidii, ogłosił, że jego firma prawdopodobnie nie zainwestuje już w OpenAI ani Anthropic. Powodem są plany wejścia tych gigantów sztucznej inteligencji na giełdę. Oświadczenie padło podczas Morgan Stanley Technology, Media & Telecom Conference.

Szczegóły:

Prezes Huang podczas konferencji otwarcie powiedział, że ostatnia inwestycja Nvidii w OpenAI, opiewająca na około 30 miliardów dolarów (blisko 120 miliardów złotych), oraz 10 miliardów dolarów (około 40 miliardów złotych) w Anthropic, najprawdopodobniej kończy współpracę kapitałową. Wcześniejsze rozmowy o potężnej infrastrukturze za 100 miliardów dolarów dla OpenAI okazały się nierealne, bo firma przygotowuje się do debiutu giełdowego.

Nvidia, jako producent zaawansowanych procesorów graficznych (GPU), czerpała ogromne korzyści z boomu na AI. Firmy takie jak OpenAI potrzebują tych chipów do trenowania modeli i obsługi dużych obciążeń. Jednak rynek zmienia się, a zapotrzebowanie przesuwa się z trenowania na inferencję, czyli szybkie reagowanie modeli AI na zapytania użytkowników.

OpenAI zabezpieczyło sobie już 3 gigawaty mocy inferencyjnej i 2 gigawaty mocy do trenowania na systemach Nvidia Vera Rubin. To pokazuje, że choć Nvidia nie będzie dalej inwestować, nadal dostarcza kluczową technologię. Firma podobno rozwija też nowe chipy specjalnie do inferencji, a OpenAI może stać się jednym z ich największych klientów. Gigant AI używa także chipów zoptymalizowanych pod inferencję od Amazona oraz procesorów Google Tensor Processing Units.

Inwestycje w AI wchodzą na nowy poziom

Huang daje jasno do zrozumienia, że era prostych inwestycji kapitałowych w startupy AI dobiega końca, gdy te dojrzewają do samodzielności giełdowej. Firmy AI teraz intensywnie inwestują w moce obliczeniowe i infrastrukturę, co staje się nowym frontem konkurencji.

Nvidia szuka nowych rynków i partnerów

Nvidia, zamykając etap inwestycji w dwóch kluczowych graczy AI, musi teraz skupić się na umacnianiu pozycji dostawcy sprzętu. Zmiana zapotrzebowania z trenowania na inferencję zmusza Nvidię do innowacji i tworzenia nowych rozwiązań sprzętowych, co otwiera drzwi dla nowych partnerstw i segmentów rynku.

Źródło

CNBC

Źródło: https://www.cnbc.com/2026/03/04/nvidia-huang-openai-investment.html,

Anthropic odrzuca 200 mln dolarów od Pentagonu i pompuje miliony w regulacje AI

Co się stało

Firma Anthropic, twórca AI Claude, odrzuciła w lutym 2026 roku kontrakt z Pentagonem o wartości 200 milionów dolarów (około 800 milionów złotych). Nie zgodziła się na poluzowanie zasad bezpieczeństwa swoich modeli AI, które miałyby służyć do masowej inwigilacji czy tworzenia autonomicznej broni. Jednocześnie Anthropic czterokrotnie zwiększył wydatki na lobbing i przekazał miliony dolarów na polityczną organizację, by wpływać na regulacje AI.

Szczegóły:

Anthropic, jako tzw. „public benefit corporation”, stawia bezpieczeństwo AI na pierwszym miejscu, dlatego odrzucił warunki Pentagonu dotyczące nieograniczonego wykorzystania modelu Claude. Badacz Jeffrey Ding podkreśla, że firma świadomie zrezygnowała z lukratywnego zysku na rzecz swoich zasad. W 2025 roku Anthropic czterokrotnie zwiększył wydatki na lobbing federalny, przekraczając 3,1 miliona dolarów (ponad 12 milionów PLN), aby promować regulacje AI. Dodatkowo, w lutym przekazał 20 milionów dolarów (około 80 milionów PLN) organizacji Public First Action. Ta grupa, poprzez swoje super-PACi (Jobs and Democracy oraz Defending Our Values), wydała 2,8 miliona dolarów (około 11 milionów PLN) w prawyborach do Izby Reprezentantów w kilku stanach, wspierając kandydatów z obu partii, którzy popierają ostrzejsze regulacje AI. Firma wcześniej ścierała się z administracją Trumpa, która krytykowała jej apele o regulacje jako „sianie paniki”. CEO Anthropic, Dario Amodei, publicznie nawoływał do transparentności w rozwoju AI, zamiast proponowanego przez innych moratorium. Działania Anthropic stoją w opozycji do innych gigantów technologicznych, takich jak OpenAI, które promują lżejsze podejście do regulacji.

Twoja prywatność i bezpieczeństwo AI zyskują obrońcę

Decyzje Anthropic oznaczają większy nacisk na tworzenie bezpieczniejszej AI. Firma aktywnie walczy o wprowadzenie regulacji, co może wpłynąć na to, jak przyszłe systemy AI będą działać, zapewniając ochronę przed niekontrolowaną inwigilacją czy użyciem w broni autonomicznej.

Rynek AI czeka starcie gigantów i nowa era regulacji

Firmy rozwijające AI muszą liczyć się z rosnącą presją na wprowadzenie surowych regulacji. Etyka i bezpieczeństwo stają się kluczowymi czynnikami, które mogą przeważać nad dużymi kontraktami. To oznacza potencjalne wyższe koszty dostosowania do nowych norm, ale także szansę na budowanie zaufania konsumentów poprzez bezpieczne i transparentne rozwiązania.

Źródło

OpenSecrets

Źródło: https://www.opensecrets.org/news/2026/03/anthropics-ai-safety-stance-clashes-with-pentagon-and-reshapes-spending-on-primaries,

Microsoft udostępnia AI, która widzi, myśli i oszczędza zasoby!

Co się stało

Microsoft Research udostępnił nowy model sztucznej inteligencji Phi-4-reasoning-vision-15B. Ten 15-miliardowy multimodalny model, dostępny publicznie od 4 marca 2026 roku, łączy rozumienie obrazu z zaawansowanym wnioskowaniem, działając przy tym niezwykle wydajnie. Firma udostępniła go na platformach takich jak Microsoft Foundry, HuggingFace i GitHub.

Szczegóły:

Microsoft Research celowo zaprojektował Phi-4-reasoning-vision-15B jako lżejszą i szybszą alternatywę dla dużych modeli, zużywającą dziesięciokrotnie mniej zasobów obliczeniowych. Dzięki temu działa szybciej i dokładniej w zadaniach wizualno-językowych, szczególnie w matematyce, nauce i analizie interfejsów użytkownika. Model opiera się na architekturze „mid-fusion”, która efektywnie łączy koder wizyjny SigLIP-2 z językowym modelem Phi-4-Reasoning. Twórcy skupili się na precyzyjnym dobieraniu i ulepszaniu danych treningowych, w tym syntetycznych, co zapewniło wysoką jakość zdolności wnioskowania. Phi-4-reasoning-vision-15B dynamicznie decyduje, czy użyć głębokiego „myślenia” dla skomplikowanych problemów, czy szybko reagować w prostych zadaniach, np. w opisie obrazu czy OCR. Użytkownik może też ręcznie wymusić ten tryb, używając specjalnych znaczników.

Otrzymujesz inteligentne narzędzie do nauki i codziennych zadań

Ten model AI potrafi opisywać obrazy, odpowiadać na pytania o nich, czytać dokumenty i rachunki, a nawet pomagać w nauce, rozwiązując problemy matematyczne czy fizyczne. Ponieważ Microsoft udostępnia go otwarcie, masz dostęp do zaawansowanej technologii bez ponoszenia kosztów licencyjnych, możesz też sprawdzić go we własnych projektach.

Obniżasz koszty wdrożenia zaawansowanej AI

Firmy zyskują dostęp do wydajnego modelu multimodalnego, który przy niższym zapotrzebowaniu na moc obliczeniową osiąga wysoką dokładność. Dzięki temu możesz wdrożyć AI do analizy dokumentów, obsługi klienta czy automatyzacji interakcji z interfejsami użytkownika, obniżając koszty operacyjne. Otwarty charakter modelu wspiera innowacje i adaptację do specyficznych potrzeb biznesowych.

Źródło

Microsoft Research Blog

Źródło: https://www.microsoft.com/en-us/research/blog/phi-4-reasoning-vision-and-the-lessons-of-training-a-multimodal-reasoning-model/,

GitHub Copilot Free z turbodoładowaniem: Grok Code Fast 1 już dostępny!

GitHub udostępnił Grok Code Fast 1 w ramach bezpłatnej wersji Copilota. Ten nowy model trafił do puli, z której Copilot automatycznie wybiera narzędzie wspomagające kodowanie. Zobaczysz go w akcji w popularnych środowiskach IDE, takich jak Visual Studio Code czy JetBrains.

Copilot Free działa jeszcze szybciej i precyzyjniej

Jako programista korzystający z GitHub Copilot Free, zauważysz szybsze i bardziej precyzyjne sugestie kodu. Nowy model Grok Code Fast 1 poprawia automatyczne uzupełnianie w twoich ulubionych IDE, takich jak Visual Studio Code czy JetBrains, bez żadnych dodatkowych kosztów.

Biznes zyskuje na zwiększonej produktywności darmowych narzędzi

Firmy, których programiści używają GitHub Copilot Free, zyskują na zwiększonej produktywności. Lepsze i szybsze sugestie kodu przekładają się na sprawniejsze tworzenie oprogramowania, obniżając koszty operacyjne bez dodatkowych inwestycji w płatne plany.

Źródło

GitHub Changelog

Źródło: https://github.blog/changelog/2026-03-04-grok-code-fast-1-is-now-available-in-copilot-free-auto-model-selection/,

AI rozpracowuje DNA! Nowy system rozszyfruje nawet najtrudniejsze genomy

Co się stało

Zespół badaczy z sukcesem stworzył Evo 2, otwarty system sztucznej inteligencji, który rozumie złożone genomy wszystkich form życia. Badacze wytrenowali ten model na bilionach par zasad DNA, a ich praca otwiera nowe drogi w genetyce. Właśnie udostępnili go publicznie, umożliwiając każdemu naukowcowi dostęp do potężnego narzędzia.

Szczegóły:

W 2025 roku ten sam zespół zaprezentował system Evo, który skutecznie identyfikował geny w prostych genomach bakterii. Złożona struktura komórek eukariotycznych, w tym ludzi, stanowiła jednak zbyt duże wyzwanie dla pierwszej wersji. Naukowcy przyjęli to jako wyzwanie i opracowali Evo 2. Ta nowa, otwarta AI przeszła trening na 8,8 biliona par zasad DNA pochodzących od bakterii, archeonów i eukariotów, a także wirusów atakujących bakterie. Wykorzystując konwolucyjną sieć neuronową StripedHyena 2, system nauczył się rozpoznawać kluczowe cechy genomów. Potrafi zidentyfikować sekwencje regulatorowe, miejsca splicingu, a nawet białka w obrębie regionów kodujących, co wcześniej było trudne dla ludzkich ekspertów. Badacze podkreślają, że Evo 2 dokonuje „przewidywania zerowego strzału”, co oznacza, że identyfikuje funkcje genetyczne bez wcześniejszego strojenia pod konkretne zadanie. System wykazał już swoją skuteczność w wykrywaniu mutacji, ich wagi oraz analizie genów takich jak BRCA2, często kojarzonych z ryzykiem nowotworów.

Twoje geny będą pod lupą

AI Evo 2 zwiastuje erę precyzyjnej medycyny. Znacząco usprawni identyfikację genetycznych predyspozycji do chorób oraz diagnostykę. W przyszłości umożliwi lekarzom szybsze i dokładniejsze wykrywanie problemów w DNA, co przełoży się na bardziej spersonalizowane terapie.

Badania i rozwój nabierają tempa

Firmy farmaceutyczne i biotechnologiczne zyskują darmowe, zaawansowane narzędzie do przyspieszenia badań nad nowymi lekami i terapiami genowymi. Otwarty charakter Evo 2 demokratyzuje dostęp do zaawansowanej analizy genomów, zmniejszając koszty i bariery wejścia dla innowacyjnych start-upów.

Źródło

Ars Technica

Źródło: https://arstechnica.com/science/2026/03/large-genome-model-open-source-ai-trained-on-trillions-of-bases/,

Copilot w Microsoft 365 Dostał Nowy Silnik AI!

Co się stało

Microsoft udostępnia nowy model GPT-5.3 Instant w swoich narzędziach Microsoft 365 Copilot i Copilot Studio. Aktualizacja, stworzona przez OpenAI, ma poprawić dokładność odpowiedzi oraz płynność konwersacji. Działa już teraz, a płatni użytkownicy zyskują priorytetowy dostęp.

Szczegóły:

OpenAI, twórca nowego modelu GPT-5.3 Instant, podkreśla jego udoskonalenia. Model koncentruje się na lepszym tonie, trafności oraz płynności konwersacji, oferując bogatsze i bardziej dopasowane wyniki z sieci. Zastępuje on używany dotychczas GPT-5.2 Instant, który płatni użytkownicy ChatGPT nadal widzą przez trzy miesiące w sekcji starszych modeli.

Microsoft integruje GPT-5.3 Instant bezpośrednio z Microsoft 365 Copilot, gdzie model pojawia się jako „GPT-5.3 Quick response”, oraz w Copilot Studio, tam jako „GPT-5.3 Chat”. Płatni użytkownicy Microsoft 365 Copilot zyskują priorytetowy dostęp do tej nowej technologii. Użytkownicy darmowi otrzymają standardowy dostęp. Firma z Redmond zapowiada także udostępnienie GPT-5.3 Instant poprzez API w Microsoft Foundry, otwierając drogę dla deweloperów i firm do tworzenia własnych aplikacji AI. OpenAI planuje również wkrótce aktualizacje modeli Thinking i Pro, które również trafią do produktów Microsoftu.

Szybciej i Trafniej z Copilotem

Użytkownicy Microsoft 365 Copilot i Copilot Studio odczują natychmiastową poprawę jakości generowanych treści i płynności dialogów. Ci, którzy płacą za Copilota, uzyskają szybszy dostęp do nowszych, precyzyjniejszych funkcji AI.

Firmy zyskują elastyczne narzędzie AI

Przedsiębiorstwa i deweloperzy mogą teraz budować zaawansowane aplikacje AI, używając API GPT-5.3 Instant przez Microsoft Foundry. To otwiera nowe możliwości automatyzacji i innowacji, zwiększając efektywność operacyjną.

Źródło

Neowin

Źródło: https://www.neowin.net/news/microsoft-brings-gpt53-instant-model-to-microsoft-365-copilot-and-copilot-studio/,

Evo 2: Sztuczna Inteligencja Otwiera Nowe Drogi Projektowania Genomów

Międzynarodowy zespół badaczy opublikował w „Nature” w marcu 2026 roku model sztucznej inteligencji Evo 2. Ten przełomowy algorytm uczy się z 9 bilionów par zasad DNA, obejmując wszystkie domeny życia, co pozwala mu przewidywać efekty zmian genetycznych i projektować nowe sekwencje genomowe. Naukowcy udostępniają Evo 2 publicznie, z kodem i danymi treningowymi, aby przyspieszyć badania w biologii.

Evo 2 to model AI uczący się z 9 bilionów par zasad DNA. Międzynarodowy zespół badaczy trenował go na zbiorze OpenGenome2, który obejmuje genomy ze wszystkich domen życia. Dzięki temu, model przewiduje funkcjonalne skutki zmian genetycznych – od mutacji patogennych po klinicznie istotne warianty BRCA1 – bez dodatkowego dostrajania do konkretnych zadań. Evo 2 rozumie też złożone cechy biologiczne, takie jak granice ekson-intron, miejsca wiązania czynników transkrypcyjnych czy elementy strukturalne białek. Co więcej, model tworzy mitochondrialne, prokariotyczne i eukariotyczne sekwencje w skali całego genomu.

Model pozwala także na projektowanie wzorców dostępności chromatyny. Naukowcy udostępniają Evo 2 jako w pełni otwarte narzędzie, publikując jego parametry, kod treningowy, kod wnioskujący oraz cały dataset OpenGenome2. Zespół odpowiedzialny za rozwój Evo 2 wdrożył środki bezpieczeństwa: celowo wykluczył sekwencje wirusów infekujących eukarioty z danych treningowych. Dzięki temu Evo 2 nie potrafi generować ani manipulować patogennymi wirusami ludzkimi, co potwierdziły przeprowadzone testy. Badacze sprawdzili również brak uprzedzeń ancestry w predykcjach modelu, co jest zgodne z zasadami odpowiedzialnej AI.

Naukowcy Bezpłatnie Analizują i Projektują Genomy

Evo 2 oferuje naukowcom i badaczom możliwość darmowego dostępu do zaawansowanych narzędzi sztucznej inteligencji do analizy DNA i projektowania nowych sekwencji. To przyspiesza badania nad chorobami genetycznymi i rozwojem spersonalizowanych terapii, co w przyszłości może przynieść korzyści każdemu pacjentowi.

Otwarta Technologia Napędza Innowacje w Biotechnologii

Firmy biotechnologiczne i farmaceutyczne zyskują otwarte źródło, które przyspieszy rozwój leków, diagnostyki i terapii genowych. Brak opłat licencyjnych za model Evo 2 obniża koszty badań, co otwiera drogę dla wielu nowych projektów i start-upów w obszarze biologii syntetycznej i inżynierii genetycznej.

Źródło

Nature

Źródło: https://www.nature.com/articles/s41586-026-10176-5,

OpenAI reaguje na Google: GPT-5.3 Instant leczy irytujący ton AI

Co się stało

OpenAI właśnie udostępniło model GPT-5.3 Instant, integrując go z ChatGPT i API. Firma reaguje na ruch Google, obiecując koniec z „przemądrzałym” tonem AI, odmawianiem odpowiedzi i zmniejszenie „halucynacji” o 27%. Nowa wersja ma sprawić, że rozmowy z AI będą płynniejsze i bardziej naturalne.

* Dla Ciebie: Jeśli używasz ChatGPT, dostrzeżesz mniej frustracji i bardziej ludzkie odpowiedzi, choć pełne korzyści odczują głównie anglojęzyczni użytkownicy – polskie odpowiedzi nadal bywają sztywne.

* Dla Biznesu: Firmy integrujące AI przez API zyskują stabilniejsze narzędzie z mniejszą tendencją do „halucynacji”, co obniża koszty korekty treści i zwiększa wiarygodność generowanych danych.

Źródło

IT之家

Źródło: https://www.ithome.com/0/925/604.htm,

Ameryka ściga chiński chip AI! Tajwański gigant TSMC pod lupą

Co się stało

Stany Zjednoczone sprawdzają chiński chip AI S60 firmy Enflame, który zawiera komponenty wyprodukowane przez tajwańską firmę TSMC. Amerykanie podejrzewają, że to narusza ich przepisy kontroli eksportu zaawansowanych technologii, obowiązujące od końca 2022 roku. Początkowy raport TechInsights wskazał na potencjalne złamanie zakazów, ale TSMC stanowczo temu zaprzecza.

Szczegóły:

Firma TechInsights, zajmująca się badaniem półprzewodników, początkowo ogłosiła, że chiński chip Enflame S60, wytwarzany przez TSMC, osiąga moc obliczeniową wystarczającą do objęcia go amerykańskimi restrykcjami eksportowymi. Te zasady od 2022 roku ograniczają sprzedaż zaawansowanych komponentów AI do Chin, aby Waszyngton zachował przewagę w tej dziedzinie. Enflame podobno rozpoczęło produkcję S60 w 2024 roku i już zainstalowało dziesiątki tysięcy tych układów w chińskich centrach danych.

Po doniesieniach mediów, TechInsights wycofało publicznie dostępne informacje o klasyfikacji chipa, a jego rzecznik, Graham Butler, zaznaczył, że analiza techniczna nadal trwa. TSMC szybko zareagowało, twierdząc, że pierwotna klasyfikacja TechInsights była błędna. Firma podkreśla, że chip, ze względu na swoje cechy techniczne i zastosowanie, nie spełnia kryteriów objętych restrykcjami. TSMC konsekwentnie przestrzega przepisów kontroli eksportu.

Ekspert Jacob Feldgoise z Georgetown University oraz Lennart Heim, specjalista od półprzewodników, skłaniają się ku pierwotnej ocenie TechInsights. Podkreślają, że jeśli TSMC faktycznie wyprodukowało duży chip AI do centrów danych, naruszyło kontrolę eksportu, podobnie jak w przypadku incydentu z Huawei i Sophgo. Amerykańskie Ministerstwo Handlu, które w 2023 i 2024 roku nie wydało Enflame żadnych licencji, nie komentuje trwających dochodzeń, ale w przeszłości zagroziło TSMC karami rzędu miliarda dolarów za podobne naruszenia.

Wojna chipowa rośnie w siłę

Nie widzisz bezpośrednich zmian w codziennym życiu, ale te napięcia wpływają na globalny łańcuch dostaw technologii i tempo rozwoju sztucznej inteligencji, co może pośrednio wpłynąć na dostępność i ceny zaawansowanych produktów AI w przyszłości.

TSMC w ogniu, chińskie AI pod presją

Tajwański gigant TSMC ryzykuje miliardowe kary i utratę zaufania kluczowych partnerów, jeśli Ameryka udowodni naruszenia. Chińskie firmy, jak Enflame, napotykają coraz większe trudności w zdobywaniu zaawansowanych komponentów, co spowalnia ich rozwój AI. Ameryka umacnia swoją strategię blokowania dostępu do technologii, aby utrzymać przewagę.

Źródło

Yahoo Finance

Źródło: https://tw.stock.yahoo.com/news/%E4%B8%AD%E5%9C%8Bai%E6%99%B6%E7%89%87%E5%90%AB%E5%8F%B0%E7%A9%8D%E9%9B%BB%E5%85%83%E4%BB%B6-%E7%BE%8E%E5%AF%A9%E6%9F%A5%E6%98%AF%E5%90%A6%E9%81%95%E5%8F%8D%E5%87%BA%E5%8F%A3%E7%AE%A1%E5%88%B6-053000299.html,

Amazon wlewa miliardy w Europę: Czy Hiszpania stanie się sercem AI?

Co się stało

Amazon ogłosił na MWC 2026 potężną inwestycję: 33,7 miliarda euro (ponad 145 miliardów złotych) na rozbudowę infrastruktury AWS i AI w Hiszpanii. Firma umocni centra danych w regionie Aragonii, stawiając na rozwój generatywnej sztucznej inteligencji w Europie. To największe technologiczne przedsięwzięcie Amazona w Hiszpanii.

Szczegóły:

Inwestycja obejmuje budowę nowych centrów danych oraz utworzenie linii produkcyjnych i naprawczych dla serwerów AI w Aragonii. Amazon szacuje, że do 2035 roku ten długoterminowy plan wesprze hiszpańskie PKB kwotą około 31,7 miliarda euro i stworzy blisko 29 900 miejsc pracy rocznie, z czego 6700 stanowisk firma utworzy bezpośrednio. Aby zaspokoić rosnące zapotrzebowanie na energię, centra AWS w Aragonii działają na 100% odnawialnych źródeł, a Amazon zobowiązał się osiągnąć neutralność węglową do 2040 roku. Dodatkowo firma dąży do bycia „wodopzytywną” do 2030 roku, inwestując w projekty oszczędzające wodę, jak inteligentne systemy nawadniania. Planuje także przeznaczyć 30 milionów euro do 2035 roku na edukację i rozwój talentów technologicznych w lokalnych społecznościach. Strategicznym celem jest umocnienie pozycji Hiszpanii jako kluczowego hubu cyfrowego w Europie.

Twoje usługi Amazon zadziałają sprawniej

Przyszłe usługi oparte na sztucznej inteligencji, takie jak rekomendacje produktów czy chatboty, działają szybciej i bardziej niezawodnie. Będziesz cieszyć się płynniejszymi aplikacjami i serwisami streamingowymi, bo infrastruktura AWS obsłuży je bliżej Polski.

Firmy zyskują pewność danych i innowacje na wyciągnięcie ręki

Europejskie firmy, szczególnie te z sektora publicznego i duże przedsiębiorstwa, otrzymają dostęp do zaawansowanych usług AI i chmurowych z gwarancją, że ich dane pozostają w Europie, co spełnia surowe wymogi prywatności. Nowe miejsca pracy i lokalna produkcja serwerów obniżą ryzyko związane z globalnymi łańcuchami dostaw.

Źródło

Cool3c

Źródło: https://www.cool3c.com/article/246747,

Boom AI winduje ceny chipów! TSMC liderem podwyżek

Co się stało

TSMC, największy na świecie producent chipów, podnosi ceny za produkcję półprzewodników. Globalny boom na sztuczną inteligencję napędza tę falę, wyciągając ceny chipów ze wcześniejszych minimów. Mniejsze firmy produkujące wafle krzemowe również odnotowują wzrost zysków.

Szczegóły:

Globalna branża półprzewodników doświadcza restrukturyzacji, którą napędza intensywny rozwój sztucznej inteligencji. TSMC, będące kluczowym graczem w sektorze odlewniczym, podnosi ceny za wytwarzanie wafli krzemowych. Podwyżki dotykają głównie starszych węzłów technologicznych, których ceny przez ostatni czas utrzymywały się na niskim poziomie. Zwiększony popyt na chipy, wynikający z zapotrzebowania na rozwiązania AI, pozwala producentom na rewizję cenników. Mniejsze firmy odlewnicze również odnotowują wzrost marż i zysków, co wskazuje na szerokie ożywienie w branży.

Elektronika podrożeje, moc AI w zasięgu

Konsumenci zapłacą więcej za nowe smartfony, komputery i urządzenia z funkcjami AI. Droższe chipy podniosą ceny finalnych produktów, ale jednocześnie zapewnią dostęp do coraz potężniejszych technologii sztucznej inteligencji.

Producenci chipów liczą zyski, inni mierzą się z wyższymi kosztami

TSMC i inne odlewnie zwiększą swoje przychody i zyski. Firmy produkujące elektronikę – od smartfonów po sprzęt przemysłowy – muszą liczyć się z wyższymi kosztami komponentów. To może wpłynąć na ich marże, ale jednocześnie stymuluje dalszy rozwój i inwestycje w obszarze AI, aby uzasadnić rosnące ceny.

Źródło

Digitimes

Źródło: https://www.digitimes.com/news/a20260304PD230/tsmc-price-profit-semiconductor-industry-cost.html,

Nvidia wydaje miliardy na fotonikę. Czy to przyspieszy AI?

Co się stało

Nvidia podpisała wieloletnie, niewyłączne umowy z amerykańskimi firmami Lumentum Operations LLC i Coherent. Gigant AI zobowiązał się do miliardowych zakupów kluczowych laserów i produktów optycznych. To posunięcie ma przyspieszyć rozwój fotoniki krzemu, kluczowej dla przyszłych centrów danych AI.

Szczegóły:

Nvidia podpisała wieloletnie, niewyłączne umowy z amerykańskimi firmami Lumentum Operations LLC i Coherent. Te porozumienia gwarantują Nvidii priorytetowy dostęp do zaawansowanych laserów i produktów sieci optycznych, kluczowych dla technologii fotoniki krzemu (SiPh). Gigant AI zobowiązał się do zakupów tych komponentów na sumę idącą w miliardy dolarów, choć konkretne kwoty pozostają nieujawnione. To strategiczne posunięcie ma przyspieszyć komercjalizację fotoniki krzemu, technologii, która obiecuje radykalnie zwiększyć przepustowość i efektywność energetyczną w centrach danych, niezbędnych dla rozwoju sztucznej inteligencji. Umowy te obejmują lata 2026-2028, co wskazuje na długoterminową wizję Nvidii w budowaniu infrastruktury AI i jej rolę w ewolucji centrów danych.

Lepsze AI to szybsze usługi

Ta inwestycja Nvidii przyspieszy rozwój technologii AI. Choć to zmiana na poziomie infrastruktury centrów danych, docelowo przełoży się na wydajniejsze i szybsze usługi bazujące na sztucznej inteligencji, z których korzystamy na co dzień – od wyszukiwarek po asystentów głosowych.

Centra danych zyskują supermoce

Dla firm budujących i eksploatujących centra danych, to oznacza dostęp do technologii pozwalających na znaczne zwiększenie przepustowości i obniżenie zużycia energii. Zwiększy to wydajność i skalowalność infrastruktury AI, dając przewagę konkurencyjną tym, którzy szybko zaadaptują fotonikę krzemu. Partnerzy Nvidii, Lumentum i Coherent, zabezpieczają sobie długoterminowe, miliardowe kontrakty.

Źródło

DIGITIMES

Źródło: https://www.digitimes.com/news/a20260304PD202/nvidia-cpo-siph-data-center.html,

Azja stawia na AI: 544 miliardy złotych na chipy i wyższe ceny

Co się stało

Popyt na chipy sztucznej inteligencji rozpędza sektor półprzewodników w Azji. Firmy z Korei Południowej, Tajwanu, Japonii i Chin zainwestują ponad 544 miliardy złotych (136 miliardów dolarów) do 2026 roku. Ten silny popyt, połączony z rosnącymi kosztami produkcji, prowadzi do znaczących podwyżek cen.

Szczegóły:

Popyt na chipy AI rozpędza azjatycki rynek półprzewodników. Producenci z Korei Południowej, Tajwanu, Japonii i Chin zamierzają przeznaczyć ponad 136 miliardów dolarów (około 544 miliardy złotych) na inwestycje kapitałowe do 2026 roku. Ta kwota przekracza zeszłoroczne wydatki o ponad 25%, co jednocześnie pociąga za sobą wzrost cen.

Vanguard International Semiconductor (spółka UMC) podniesie ceny o 5% w I kwartale 2026, a potem o 10-15%. Prezes Leuh Fang deklaruje współpracę z klientami. Więksi gracze, jak Unimicron i Winbond Electronics, również zwiększają inwestycje, odpowiednio do 34 miliardów NTD (około 4,4 miliarda złotych) na zaawansowane podłoża AI oraz 42,1 miliarda NTD (około 5,5 miliarda złotych) na ogólną rozbudowę, przewidując ponad 30-procentowy wzrost cen.

Boom AI napędza cały łańcuch dostaw. Firmy takie jak ASE Technology i Powertech Technology intensywnie zwiększają moce produkcyjne dla klientów pokroju Nvidia czy AMD. Dyrektor generalny Powertech, Boris Hsieh, informuje, że fabryki opakowań odmawiają już zamówień od mniejszych klientów przez pełne obłożenie. Delta Electronics planuje wydać 46,1 miliarda NTD (około 6 miliardów złotych) do 2026 roku na nowe fabryki, by sprostać rosnącemu zapotrzebowaniu. Mimo przewidywanego pomyślnego roku, branża mierzy się z ograniczeniami łańcucha dostaw i brakiem siły roboczej.

Wzrosną ceny urządzeń z AI

Silny popyt i wyższe koszty produkcji chipów AI przełożą się na ceny końcowych produktów. Konsumenci zapłacą więcej za smartfony, komputery czy inteligentne urządzenia korzystające z zaawansowanych procesorów, ponieważ producenci wliczą rosnące koszty w finalną cenę.

Azja umacnia pozycję, łańcuch dostaw pod presją

Azjatyckie firmy zyskują dominującą pozycję w produkcji chipów AI, stwarzając okazje dla inwestorów w tym sektorze. Jednocześnie, mniejsi producenci i klienci mogą zmierzyć się z ograniczonym dostępem do podzespołów i wyższymi kosztami, a globalny łańcuch dostaw pozostanie pod znaczącą presją.

Źródło

Yahoo Finance

Źródło: https://tw.stock.yahoo.com/news/ai%E6%99%B6%E7%89%87%E9%9C%80%E6%B1%82%E7%88%86%E7%99%BC-%E4%BA%9E%E6%B4%B2%E5%8D%8A%E5%B0%8E%E9%AB%94%E6%8A%95%E8%B3%87%E9%A1%8D%E8%A1%9D%E7%A0%B41360%E5%84%84%E7%BE%8E%E5%85%83-111506809.html,

AI rozpala rynek: AMD ma problem z produkcją procesorów!

Co się stało

Lisa Su, prezes AMD, ogłosiła niedawno, że firma odnotowuje „nieoczekiwany” wzrost zamówień na procesory serwerowe. Popyt eksplodował przez rosnącą rolę agentic AI, która znacząco zwiększa zapotrzebowanie na CPU w infrastrukturze sztucznej inteligencji. W rezultacie AMD zmaga się z problemami z dostawami, pomimo wcześniejszych optymistycznych prognoz.

Szczegóły:

Lisa Su podkreśla, że w ostatnich kwartałach proporcje zapotrzebowania na CPU i GPU w obciążeniach AI uległy wyraźnej zmianie. Aplikacje agentic AI zwiększyły znaczenie procesorów w ogólnej architekturze sztucznej inteligencji. Giganci chmurowi, tacy jak Meta, już podpisują umowy o współpracę z dostawcami infrastruktury, w tym z AMD i Nvidią.

Na spotkaniu z Morgan Stanley Su przyznała, że zamówienia na procesory serwerowe „znacznie przekroczyły pierwotne oczekiwania”. Choć AMD zakładało duży wzrost w segmencie GPU, to właśnie zapotrzebowanie na CPU zaskoczyło nawet wewnętrzne, agresywne prognozy firmy. Klienci wskazują, że początkowo niedoszacowali zapotrzebowania na moc obliczeniową CPU przy wdrażaniu AI.

Su uspokaja, że to nie jest długoterminowy problem strukturalny. To efekt nagłego, intensywnego wzrostu popytu, na który łańcuch dostaw nie był gotowy. AMD intensywnie współpracuje z partnerami produkcyjnymi i dostawcami, aby zwiększyć moce. Firma przewiduje, że w ciągu roku produkcja stopniowo wzrośnie, co złagodzi obecne niedobory. Podkreśla również, że obecne portfolio produktów AMD sprosta różnorodnym potrzebom AI, od trenowania po wnioskowanie i agentic AI. Podobne problemy z zaspokojeniem popytu zgłaszał też Intel.

AI przyspieszy? Poczekamy na procesory

Jako indywidualny użytkownik nie odczujesz bezpośrednio niedoborów CPU. Jednak stabilna podaż procesorów ma kluczowe znaczenie dla rozwoju i dostępności usług opartych na sztucznej inteligencji, z których korzystamy każdego dnia. Opóźnienia w dostawach mogą spowolnić wprowadzanie nowych, zaawansowanych funkcji AI.

Firmy AI walczą o moc obliczeniową

Firmy rozwijające AI stają przed wyzwaniem: rosnące zapotrzebowanie na procesory serwerowe winduje koszty i wydłuża czas wdrażania nowych projektów. Producenci jak AMD muszą szybko reagować, zwiększając produkcję, aby utrzymać konkurencyjność i zaspokoić potrzeby rynku. To również otwiera drzwi dla nowych graczy i innowacji w zakresie optymalizacji zużycia zasobów.

Źródło

TechNews

Źródło: https://technews.tw/2026/03/04/unexpected-amd-cpu-demand/,

Grok Muska w tajnych operacjach USA. Pentagon zignorował alarmy!

Co się stało

Amerykański Departament Obrony zezwolił Grokowi, sztucznej inteligencji firmy xAI Elona Muska, na operowanie w ściśle tajnych środowiskach. Decyzja zapadła w tym tygodniu, pomimo poważnych ostrzeżeń federalnych agencji bezpieczeństwa o potencjalnych lukach i ryzyku manipulacji. To posunięcie włącza xAI w sam środek najwrażliwszych operacji USA.

Szczegóły:

Agencja General Services Administration (GSA) już w styczniu alarmowała, że Grok-4 nie spełnia federalnych standardów bezpieczeństwa i spójności. Raport GSA wskazał na olbrzymie ryzyko cyberbezpieczeństwa bez wielopoziomowej kontroli. Ed Foster, wysoki rangą urzędnik GSA, ostrzegał Biały Dom, że Grok łatwo ulega manipulacji przez błędne lub stronnicze dane. Wcześniej Grok wywołał krytykę, generując nieodpowiednie treści. W odpowiedzi na obawy, Josh Grunbaum, urzędnik ds. zakupów ściągnięty przez Muska do „Departamentu Efektywności Rządowej”, zapewnił, że rządowa platforma Grok będzie całkowicie odizolowana od publicznej wersji.

Polityczne tarcia zaczęły dyktować wybór AI. Model Claude firmy Anthropic wcześniej działał w tajnych misjach. Prezydent Trump publicznie ogłosił jednak zakończenie współpracy z Anthropic, nakazując agencjom federalnym natychmiastowe zaprzestanie używania ich technologii. Urzędnicy federalni oceniali, że Anthropic jest zbyt „politycznie poprawny” i powiązany z darczyńcami Demokratów. Z kolei xAI, z luźniejszą kontrolą modelu i postawą Muska pro-wolność słowa, zyskał sympatię Pentagonu. Matthew Johnson, dyrektor ds. AI w Pentagonie, zrezygnował dwa tygodnie temu, zaniepokojony poświęcaniem bezpieczeństwa na rzecz szybkiej ekspansji. Państwowa Agencja Bezpieczeństwa (NSA) w tajnej ocenie z listopada 2024 roku także wskazała na konkretne luki bezpieczeństwa w Groku, w tym większą podatność na zatruwanie danych.

Pomimo kontrowersji, rzecznik Pentagonu, Sean Parnell, powitał xAI i zapowiedział szybkie wdrożenie Groka na oficjalnej platformie GenAI.mil. W lipcu ubiegłego roku xAI, Google, OpenAI i Anthropic zdobyły kontrakty Pentagonu o wartości 200 milionów dolarów, czyli około 800 milionów złotych.

Twoje bezpieczeństwo na szali

Decyzja Pentagonu to ryzykowny krok. Chociaż urzędnicy widzą potencjał Groka w symulacjach wojennych, eksperci ostrzegają przed podatnością na manipulacje. Stawianie niedojrzałej AI w tajnych operacjach wojskowych rodzi pytania o konsekwencje dla bezpieczeństwa narodowego i potencjalne zagrożenia, które dotkną każdego obywatela.

xAI zgarnia lukratywny kontrakt, konkurencja zmienia plany

Decyzja daje xAI ogromny prestiż i dostęp do niezwykle wrażliwych danych, umieszczając firmę Muska w centrum wojskowych innowacji. Inne firmy, jak Anthropic, tracą kluczowego klienta i muszą redefiniować swoje strategie wobec sektora rządowego. Kontrakty na AI dla wojska staną się jeszcze bardziej zaciętą walką, gdzie poza technologią liczą się też względy polityczne i podejście do „wolności słowa” w algorytmach.

Źródło

T客邦 (Techbang)

Źródło: https://www.techbang.com/posts/128130-us-dod-grok-ai-split,

AI przyspieszy 6-krotnie: Nowa pamięć od Micron i Nvidia tnie koszty

Micron i NVIDIA wprowadzają nowy standard pamięci SOCAMM2. Moduły SOCAMM2, ściśle współpracując z procesorami, przyspieszą działanie serwerów AI nawet sześciokrotnie, jednocześnie obniżając zużycie energii o 66% w porównaniu do tradycyjnych rozwiązań RDIMM. Ta technologia ma rozwiązać problem tzw. „ściany pamięci”, który spowalnia rozwój sztucznej inteligencji.

SOCAMM2, wcześniej rozwiązanie zastrzeżone, staje się otwartym standardem JEDEC. Moduły montujesz poziomo, obok głównego procesora, używając warstwowej pamięci LPDDR. Ten projekt nie tylko zapewnia większą przepustowość niż pamięci HBM, ale też efektywniej odprowadza ciepło, upraszczając system chłodzenia. Modułowa konstrukcja pozwala łatwo wymieniać i ulepszać pamięć, dopasowując ją do zmieniających się potrzeb AI.

Micron pokazał moduł SOCAMM2 o pojemności 256 GB, co podwoiło możliwości w mniej niż rok. Dzięki temu, jedna jednostka CPU zyskuje dostęp do 2 TB pamięci, dając akceleratorom AI ogromną przestrzeń na dane. Nowy standard zużywa 66% mniej energii niż pamięci RDIMM i oferuje o 33% większą pojemność niż konkurencyjne produkty SK Hynix.

SOCAMM2 przyspiesza ogólne obciążenia serwerów czterokrotnie, a w zadaniach AI – ponad sześciokrotnie. To idealne rozwiązanie do obsługi pamięci podręcznej typu Key-Value (KV Cache), która przechowuje wyniki poprzednich zapytań, eliminując powtarzające się obliczenia. Według Tirias Research, połączenie SOCAMM2 z ulepszonym zarządzaniem pamięcią podręczną AI obniży koszty generowania tokenów dla modeli takich jak ChatGPT czy Gemini od 3 do 5 razy, zmniejszając presję na inwestycje w serwery AI do końca dekady, szacowane na 1,2 biliona dolarów (około 4,8 biliona złotych). Samsung i SK Hynix już wdrażają SOCAMM2, a technologia trafi do serwerów AI „Rubin”. Zastosowanie znajdzie także w wysokowydajnych obliczeniach (HPC).

Szybsze i tańsze usługi AI

Użytkownicy doświadczą szybszych odpowiedzi od asystentów AI i chatbotów. Firmy AI, dzięki niższym kosztom działania, mogą oferować bardziej przystępne cenowo usługi, co przyspieszy adopcję sztucznej inteligencji w codziennym życiu.

Centra danych zyskują na mocy i oszczędnościach

Firmy technologiczne i operatorzy centrów danych znacząco obniżą koszty operacyjne, zwiększą wydajność swoich serwerów AI i będą mogli efektywniej rozwijać bardziej zaawansowane modele sztucznej inteligencji. To otwiera drogę do budowy potężniejszych, a jednocześnie bardziej ekonomicznych infrastruktur AI.

Źródło: TechNews 科技新報

Źródło: https://technews.tw/2026/03/04/micron-sets-new-benchmark-with-the-worlds-first-high-capacity-256gb-lpdram-socamm2-for-data-center-infrastructure/,

Roboty jak ludzie w fabrykach BMW: Czym jest AEON i co to oznacza dla produkcji?

Co się stało

BMW wdraża humanoidalne roboty AEON od Hexagon Robotics w swojej fabryce w Lipsku, co stanowi pierwsze takie zastosowanie w Europie. Maszyny, mające do końca 2026 roku pracować na pełnych obrotach, przejmą zadania na liniach montażowych i w produkcji akumulatorów do elektryków. Koncern chce w ten sposób podnieść efektywność i odciążyć pracowników od ciężkich, powtarzalnych czynności.

Szczegóły:

Hexagon Robotics, z którym BMW od lat współpracuje w zakresie sprzętu pomiarowego, dostarcza roboty AEON, projektowane z myślą o pracy przemysłowej. Arnaud Robert, prezes Hexagon Robotics, podkreśla, że roboty nie mają tańczyć, lecz pracować. AEON porusza się na kołach z prędkością do 2,5 metra na sekundę, a jego baterie wymieniają się automatycznie w 23 sekundy, co zapewnia ciągłość pracy. Robot posiada 22 czujniki, w tym kamery i sensory podczerwieni, co daje mu pełną świadomość otoczenia w 360 stopniach i umożliwia precyzyjną kontrolę jakości.

AEON uczy się na czterech poziomach sztucznej inteligencji, wykorzystując symulacje, uczenie percepcyjne oraz uczenie przez imitację, gdzie zaledwie 20 demonstracji wystarczy do autonomicznej pracy. BMW trenuje roboty na własnych, kuratorskich danych fabrycznych, co minimalizuje ryzyko „halucynacji” i zapewnia wysoką precyzję. Całe przetwarzanie AI odbywa się lokalnie na pokładzie maszyny, na dwóch kartach NVIDIA Jetson.

BMW zbiera doświadczenia od grudnia 2025 roku, ale wcześniej przeprowadziło podobny program w Spartanburgu (USA) z robotem Figure 02, który przepracował 1250 godzin, przenosząc 90 tysięcy części. Michael Nikolaides, wiceprezes BMW ds. sieci produkcyjnej, podkreśla, że wdrożenie w Lipsku czerpie z tych lekcji, angażując od początku działy IT, bezpieczeństwa i logistyki. BMW utworzyło też Centrum Kompetencji ds. Fizycznej Sztucznej Inteligencji w Monachium, aby skalować technologię.

Samochody będą precyzyjniejsze i łatwiej dostępne

Wdrożenie robotów AEON pozwoli BMW na zwiększenie precyzji w procesach produkcyjnych, szczególnie w wymagających obszarach, jak montaż akumulatorów. Lepsza kontrola jakości, wynikająca z powtarzalności ruchów robotów, przekłada się na wyższą jakość gotowych samochodów. Skrócenie czasu produkcji oraz zwiększenie efektywności może też oznaczać szybszą dostępność nowych modeli dla klientów.

Zwiększona efektywność produkcji i przewaga technologiczna

Dla BMW to szansa na znaczące zwiększenie efektywności operacyjnej, redukcję obciążeń fizycznych pracowników oraz optymalizację kosztów długoterminowo. Wykorzystanie AI do zadań, które dla ludzi są monotonne i obciążające, daje firmie przewagę technologiczną i pozwala skupić ludzki kapitał na bardziej złożonych zadaniach. Inwestycja w roboty humanoidalne umacnia pozycję BMW jako lidera innowacji w branży motoryzacyjnej.

Źródło

BMWBLOG

Źródło: https://www.bmwblog.com/2026/03/03/bmw-hexagon-aeon-humanoid-robot-leipzig-pilot/,

Nvidia: Rubin redefiniuje AI, bijąc rekordy

Co się stało

Nvidia zaprezentowała nową architekturę chipów AI „Rubin” na targach CES 2026. Firma jednocześnie podniosła prognozy przychodów na rok fiskalny 2027, rozwiewając obawy o bańkę AI. Ten krok oznacza przejście od budowy infrastruktury AI do etapu głębszego wnioskowania.

* Dla Ciebie: Twoje urządzenia zyskają bardziej zaawansowaną, autonomiczną AI, zdolną do złożonego myślenia, wykraczającą poza proste chatboty.

* Dla Biznesu: Firmy technologiczne muszą intensywniej inwestować w drogi sprzęt do wnioskowania, co zwiększa koszty i eskaluje wyścig o dominację w AI.

Źródło

Yahoo Finance

Źródło: https://tw.stock.yahoo.com/news/%E8%BC%9D%E9%81%94-rubin-%E6%9E%B6%E6%A7%8B%E4%BA%AE%E7%9B%B8-ces-2026-093000887.html,

Meta i AMD łączą siły: Gigantyczny kontrakt rzuca wyzwanie potędze Nvidii!

Co się stało

Meta Platforms zawarła wieloletnią umowę z AMD na zakup mocy obliczeniowej AI o wartości od 60 do 100 miliardów dolarów, czyli około 240 do 400 miliardów złotych, w ciągu pięciu lat. Porozumienie, ogłoszone 3 marca, da Meta dostęp do 6 gigawatów (6GW) mocy obliczeniowej, co zmienia układ sił na rynku chipów AI, gdzie Nvidia dotąd dominowała. Pierwsze gigawaty mocy zaczną działać pod koniec 2026 roku.

Szczegóły:

Meta kupi niestandardowe układy AMD Instinct MI450 GPU, wykonane w 2-nanometrowej technologii TSMC. Te chipy, specjalnie zaprojektowane dla modeli językowych Llama, będą używać pamięci HBM4 z przepustowością 19,6 TB/s. Dodatkowo, Meta wdroży procesory AMD EPYC szóstej generacji, znane jako „Venice” i „Verano”, które zapewnią wysoką przepustowość dla tak dużych klastrów. Firmy przez 18 miesięcy negocjowały tę tajną współpracę. Po sukcesie serii MI300 AMD w 2024 roku, inżynierowie Meta i projektanci AMD stworzyli architekturę rackową „Helios”. System „Helios”, opracowany w ramach Open Compute Project (OCP), pozwala Meta na łatwe włączanie sprzętu AMD jako alternatywy dla rozwiązań Nvidii. Meta otrzymała również od AMD oparty na wynikach program warrantów, który pozwoli firmie nabyć do 160 milionów akcji AMD, czyli około 10% udziałów. Warrantsy będą aktywowane w miarę osiągania przez Meta kamieni milowych wdrożenia i wzrostu kursu akcji AMD (ostatnia partia odblokuje się przy kursie 600 dolarów za akcję), co zamienia Meta w strategicznego partnera, a nie tylko klienta.

Twoje AI w Meta działa na nowym silniku

Zmiana oznacza, że Meta buduje swoją przyszłą sztuczną inteligencję na bardziej zróżnicowanej infrastrukturze. W efekcie Twoje doświadczenia z AI w Meta (np. z asystentami czy zaawansowanymi funkcjami) będą opierać się na mocach obliczeniowych AMD. To zwiększa odporność systemów Meta i prawdopodobnie przyspieszy rozwój nowych technologii AI.

Rynek układów AI zmienia układ sił

AMD, dzięki zapewnionym wpływom od 20 do 25 miliardów dolarów rocznie od końca 2026 roku, znacząco umocni swoją pozycję. Spodziewa się zwiększenia udziału w rynku akceleratorów AI z 9% do 18% do końca 2026 roku. Dla Nvidii to sygnał, że jej dominacja i strategia cenowa napotykają poważną konkurencję. Meta zyskuje „wiarygodne drugie źródło”, co daje jej przewagę w negocjacjach i zmniejsza ryzyko w łańcuchu dostaw, potencjalnie zmuszając Nvidię do zmiany polityki cenowej, aby utrzymać klientów.

Źródło

Yahoo Finance

Źródło: https://tw.stock.yahoo.com/news/amd-meta-%E8%81%AF%E6%89%8B%E6%8C%91%E6%88%B0-nvidia-%E7%B0%BD%E7%BD%B2-005851543.html,

Nvidia i giganci zbudują 6G: Sieć przyszłości z AI

Nvidia wraz z koalicją globalnych operatorów i dostawców infrastruktury zapowiedziała na Mobile World Congress strategiczne zobowiązanie. Zbudują oni nową generację sieci bezprzewodowych 6G, opierając ją na otwartych, bezpiecznych i natywnych dla AI platformach. To oznacza, że przyszłą łączność na świecie zaprojektują i wdrożą w zupełnie nowy sposób.

Inicjatywa jednoczy gigantów takich jak Booz Allen, BT Group, Cisco, Deutsche Telekom, Ericsson, Mitre, Nokia, OCUDU Ecosystem Foundation, ODC, SK Telecom, SoftBank i T-Mobile. Wspólnie chcą stworzyć infrastrukturę bezprzewodową, która sprosta wymaganiom sztucznej inteligencji na dużą skalę. Nvidia opisała to jako fundament nowej ery łączności, gdzie sieci nie tylko przesyłają dane, ale stanowią inteligentne systemy, które wbudowują AI w sieć dostępową (RAN), brzeg sieci i rdzeń.

Te natywne dla AI platformy wspierają powstające zastosowania, wykraczające poza tradycyjną komunikację. Wymagają ich pojazdy autonomiczne, robotyka przemysłowa, inteligentne miasta oraz szerokie spektrum połączonych czujników. Wszystkie te technologie potrzebują inteligencji działającej w czasie rzeczywistym, stabilnego działania i wysokiej niezawodności.

Jensen Huang, założyciel i dyrektor generalny Nvidii, powiedział: „AI przedefiniowuje obliczenia i napędza jedną z największych w historii rozbudów infrastruktury, a telekomunikacja stoi w kolejce do transformacji”. Partnerzy podkreślają znaczenie otwartych, definiowanych programowo platform. Przyśpieszą one innowacje, uproszczą interoperacyjność i zbudują odporność łańcuchów dostaw, które są kluczowe dla przyszłych wdrożeń sieci.

Allison Kirkby, CEO BT Group, określiła łączność jako „kręgosłup wzrostu gospodarczego”. Dodała, że otwarte i godne zaufania platformy z AI pomogą branży skalować się poza 5G. Tim Höttges, CEO Deutsche Telekom, uważa, że inteligentna infrastruktura 6G jest niezbędna dla zapewnienia klientom lepszych doświadczeń i odblokowania nowych strumieni wartości dla firm i konsumentów.

Internet dostosuje się do Ciebie

Jako użytkownik zyskasz dostęp do sieci, która nie tylko przesyła dane błyskawicznie, ale aktywnie przewiduje i spełnia Twoje potrzeby. Pojazdy autonomiczne staną się bezpieczniejsze, inteligentne miasta efektywniejsze, a urządzenia połączone z siecią będą działać z niespotykaną precyzją, zapewniając płynność i niezawodność, których dzisiaj brakuje.

Firmy odblokują gigantyczny potencjał AI i nowe zyski

Przedsiębiorstwa otrzymają solidną platformę do wdrażania zaawansowanych rozwiązań AI, od robotyki przemysłowej po zarządzanie inteligentnymi miastami. Otwarte platformy 6G przyśpieszą innowacje, uproszczą współpracę między różnymi systemami i zwiększą odporność łańcuchów dostaw, co przełoży się na nowe źródła przychodów i możliwości skalowania biznesu daleko poza to, co oferuje 5G.

Źródło

PYMNTS.com

Źródło: https://www.pymnts.com/connectedeconomy/2026/nvidia-expands-telecom-push-with-ai-native-6g-initiative/,

Google Wchłania Intrinsic i Stawia na Roboty Przemysłowe

Co się stało

Alphabet przenosi firmę Intrinsic, zajmującą się robotyką przemysłową, pod skrzydła Google. Ten ruch wzmacnia ambicje technologicznego giganta w obszarze „fizycznej AI”, która pozwala systemom sztucznej inteligencji bezpośrednio działać w świecie rzeczywistym za pomocą maszyn. Intrinsic będzie dalej działać jako niezależna jednostka, ale zyska dostęp do potężnych zasobów Google DeepMind, modeli Gemini oraz globalnej infrastruktury chmurowej.

Szczegóły:

Intrinsic narodziło się w eksperymentalnym laboratorium X Alphabetu, a w 2021 roku stało się niezależną firmą. Jej misją jest demokratyzacja robotyki przemysłowej dzięki oprogramowaniu i sztucznej inteligencji. Intrinsic w przeszłości przejmowało inne spółki, w tym Vicarious (startup software’owy dla robotyki) oraz rentowne działy Open Robotics, rozszerzając swoje możliwości. W styczniu 2023 roku Intrinsic zredukowało około 20% załogi. Kilka miesięcy później firma zaprezentowała Flowstate – platformę, która upraszcza tworzenie przepływów pracy robotów, umożliwiając integrację automatyzacji bez zaawansowanej wiedzy technicznej. W 2025 roku Intrinsic przedstawiło Intrinsic Vision AI, model wizji komputerowej dla robotyki, oraz zawarło joint venture z producentem elektroniki Foxconn. Współpraca ma na celu rozwój inteligentnych robotów ogólnego przeznaczenia i pełną automatyzację fabryk. Integracja Intrinsic z Google podkreśla rosnące znaczenie fizycznej AI, którą liderzy branży, tacy jak Jensen Huang z Nvidii czy Cristiano Amon z Qualcomma, wskazują jako kolejny etap ewolucji AI.

Twoje produkty powstaną szybciej i taniej

Połączenie sił Google i Intrinsic oznacza, że automatyzacja fabryk stanie się bardziej dostępna i efektywna. W przyszłości to może przełożyć się na niższe ceny produkowanych towarów oraz szybszą ich dostępność na rynku, co odczuje każdy konsument.

Przemysł zyskuje inteligentny napęd

Google umacnia swoją pozycję w sektorze sztucznej inteligencji dla przemysłu, oferując firmom produkcyjnym zaawansowane narzędzia do automatyzacji. Przedsiębiorstwa mogą spodziewać się łatwiejszego wdrażania robotyki, zwiększenia efektywności produkcji i obniżenia kosztów operacyjnych.

Źródło

GD (Eurisko)

Źródło: https://gd.eurisko.com.br/2026/03/03/intrinsic-se-une-ao-google-e-reforca-aposta-da-alphabet-em-ia-fisica-para-robotica-industrial/,

Giganci tech uciekają z Dubaju: Amazon, Google i Nvidia zamykają biura

Co się stało

Nvidia, Amazon, Google i Snap zamykają swoje biura na Bliskim Wschodzie. Eskalacja konfliktu między USA, Izraelem a Iranem wywołała chaos w regionie, powodując masowe odwołania lotów i zagrożenie bezpieczeństwa. Firmy przenoszą pracowników na pracę zdalną, jednak dziesiątki osób z Google utknęły w Dubaju po firmowej konferencji.

Szczegóły:

Nvidia, czołowy producent chipów, tymczasowo zamknęła swoje biuro w Dubaju, kierując pracowników do pracy zdalnej. Prezes Jensen Huang w wewnętrznej wiadomości podkreślił, że zespół zarządzania kryzysowego aktywnie wspiera 6000 pracowników i ich rodziny w Izraelu, gdzie Nvidia ma swoją największą bazę badawczo-rozwojową poza USA, po przejęciu firmy Mellanox w 2019 roku za 7,13 miliarda dolarów. Huang potwierdził bezpieczeństwo wszystkich pracowników.

Amazon również zamknął wszystkie swoje biura korporacyjne na Bliskim Wschodzie, od Zjednoczonych Emiratów Arabskich po Izrael, i przestawił pracowników na tryb zdalny. Firma boryka się z poważniejszymi problemami: dwa jej centra danych w ZEA oraz jedno w Bahrajnie ucierpiały w wyniku ataków dronów. Obiekty mają uszkodzenia strukturalne, problemy z zasilaniem i zalania, a niektóre usługi Amazon Web Services (AWS) nadal działają niestabilnie. AWS zaleca klientom tworzenie kopii zapasowych danych.

Tymczasem dziesiątki pracowników Google utknęły w Dubaju. Odwołane loty zablokowały im powrót po konferencji „Accelerate” jednostki cloud. Głównie są to pracownicy z regionu. Podobnie Snap poprosił pracowników swoich czterech biur na Bliskim Wschodzie o pracę zdalną do odwołania. Konflikt zbrojny, który rozpoczęły ataki USA i Izraela na Iran, sparaliżował cywilne loty – odwołano ponad 11 000 połączeń.

Problemy z usługami online mogą dotknąć także Ciebie

Jeśli polegasz na usługach działających na platformie Amazon Web Services (AWS), zwłaszcza tych hostowanych w regionie Bliskiego Wschodu, możesz doświadczyć tymczasowych przerw w ich działaniu lub spowolnień. Firmy korzystające z AWS zostały wezwane do tworzenia kopii zapasowych danych, co stanowi dodatkowe obciążenie.

Koszty i ryzyka rosną dla firm technologicznych

Firmy technologiczne ponoszą ogromne koszty związane z relokacją pracowników, zapewnieniem im bezpieczeństwa i przejściem na pracę zdalną. Uszkodzenia infrastruktury, jak centra danych Amazonu, generują dodatkowe straty finansowe i reputacyjne, zmuszając do rekonfiguracji usług i rekomendowania klientom migracji danych, co podważa zaufanie do stabilności operacji w regionie.

Źródło

CNBC

Źródło: https://www.cnbc.com/2026/03/03/nvidia-amazon-offices-google-dubai-iran-war.html,

1. Tytuł: Czy optyka pogrzebie miedź? Ayar Labs dostaje pół miliarda dolarów na AI!

2. Co się stało: Start-up Ayar Labs, wspierany przez Nvidię, pozyskał 500 milionów dolarów finansowania. Firma przeznaczy te pieniądze na masową produkcję optycznych chipletów TeraPHY. Te innowacyjne układy połączą dziesiątki tysięcy procesorów graficznych, znacznie przyspieszając rozwój sztucznej inteligencji.

3. Szczegóły:

Ayar Labs, założone w 2015 roku, rozwija technologię TeraPHY – optyczne chiplety, które zastępują miedziane połączenia w komunikacji między układami. Obecnie, miedź powyżej 800 gigabitów na sekundę działa stabilnie tylko na kilku metrach, a popularne moduły optyczne zużywają sporo energii i wprowadzają opóźnienia. Ayar integruje swoje chiplety bezpośrednio w procesorach graficznych lub akceleratorach. Dzięki temu systemy uzyskują znacznie większą przepustowość, zużywając ułamek mocy, którą wymagają tradycyjne rozwiązania.

Firma pokazała już referencyjny projekt z Alchip, który z ośmioma chipletami TeraPHY osiąga ponad 200 terabitów na sekundę łącznej przepustowości na pakiet. To pięciokrotnie więcej niż oferują najnowsze układy Nvidia Rubin (28,8 Tbps). Co więcej, optyczne połączenia Ayar Labs nie ograniczają się do jednej szafy serwerowej. Vladimir Stojanovic, CTO Ayar, zapowiada: „Chcemy połączyć do 10 000 układów GPU w jednej domenie, utrzymując pobór mocy szafy w okolicach 100 kilowatów.”

Runda finansowania Serii E, o wartości 500 milionów dolarów (około 2 miliardy złotych), przyciągnęła Neuberger Berman jako lidera, a także MediaTek i Nvidię. Pieniądze wesprą masową produkcję, testy i globalną ekspansję, w tym otwarcie biura w Hsinchu na Tajwanie.

Sztuczna inteligencja stanie się sprawniejsza i tańsza

Choć bezpośrednio nie odczujesz tej zmiany, to centra danych będą działać szybciej i efektywniej. To oznacza, że usługi oparte na AI – od asystentów głosowych po zaawansowane symulacje – będą dostępne szybciej, taniej i z większą precyzją. Zobaczysz sprawniejsze działanie aplikacji i szybsze odpowiedzi od AI.

Centra danych oszczędzą energię, zyskają moc

Operatorzy centrów danych zyskają możliwość budowania potężniejszych systemów AI, zużywając przy tym mniej energii elektrycznej. Zniesienie ograniczeń odległości i przepustowości dla połączeń między GPU pozwoli na projektowanie bardziej elastycznych i skalowalnych architektur. To przełoży się na niższe koszty operacyjne i szybsze wprowadzanie na rynek innowacyjnych rozwiązań opartych na sztucznej inteligencji, dając przewagę konkurencyjną.

4. Źródło: The Register

Źródło: https://www.theregister.com/2026/03/03/ayar_labs_500m/,

Windows 12 nadchodzi: AI w centrum, ale twój komputer może być za słaby

Co się stało

Microsoft szykuje nową odsłonę systemu operacyjnego, Windows 12, która mocno stawia na sztuczną inteligencję i modułowość. Premiera systemu, znanego pod kodową nazwą „Hudson Valley Next”, może nastąpić jeszcze w tym roku, co zbiegnie się z końcem wsparcia dla Windows 10.

Potrzebujesz nowego komputera i zapłacisz za AI

Aby uruchomić Windows 12, kupisz komputer z dedykowaną jednostką NPU (Neural Processing Unit), co zdyskwalifikuje miliony obecnych maszyn. Niektóre zaawansowane funkcje AI Microsoft prawdopodobnie zaoferuje w modelu subskrypcyjnym.

Branża PC zyskuje, Microsoft liczy na nowe subskrypcje

Wymóg NPU napędzi sprzedaż nowych komputerów, co wesprze producentów sprzętu. Microsoft zyska nowy strumień przychodów z subskrypcji na zaawansowane usługi AI.

Źródło

cnBeta.COM

Źródło: https://www.cnbeta.com.tw/articles/tech/1552130.htm,

OpenAI buduje własnego „GitHub”! Koniec zależności od Microsoftu?

Co się stało

OpenAI, twórca ChatGPT i firma Sama Altmana, rozwija własną platformę do zarządzania kodem. Firma chce uniezależnić się od GitHub, należącego do Microsoftu, po powtarzających się awariach, które zakłócały jej wewnętrzne procesy. Projekt jest w początkowej fazie, ale sygnalizuje strategiczny ruch OpenAI.

Szczegóły:

Inżynierowie OpenAI od marca 2026 roku pracują nad wewnętrznym narzędziem, które ma zastąpić GitHub. Powodem są częste przestoje na platformie Microsoftu, które utrudniały zespołom OpenAI codzienne prace. Choć na razie to tylko wewnętrzny projekt, firma rozważa udostępnienie go swoim klientom w przyszłości.

Ta inicjatywa to kolejny rozdział w rosnących napięciach między OpenAI a Microsoftem. Microsoft, posiadający 27% udziałów w OpenAI i wyłączną licencję na jego własność intelektualną do 2032 roku, przez długi czas był kluczowym partnerem. Jednak już w połowie 2025 roku pojawiały się doniesienia, że OpenAI rozważa oskarżenie Microsoftu o praktyki antykonkurencyjne. Przykładem napięć było przejęcie startupu Windsurf, gdy OpenAI nie chciało, aby Microsoft przejął jego własność intelektualną, obawiając się wzmocnienia konkurencyjnego GitHub Copilot.

Po październiku 2025 roku firmy renegocjowały umowę, co pozwoliło OpenAI korzystać z innych dostawców infrastruktury chmurowej, takich jak AWS i Oracle. W odpowiedzi, w lutym 2026 roku Mustafa Suleyman, szef Microsoft AI, potwierdził, że jego zespół pracuje nad własnymi modelami fundamentowymi, aby zmniejszyć zależność od OpenAI. Mimo że GitHub dominuje na rynku, goszcząc ponad 630 milionów repozytoriów i 150 milionów deweloperów, jego podatność na awarie skłania OpenAI do szukania alternatyw. Firma może połączyć hosting kodu z narzędziami generatywnej AI, co może przyciągnąć deweloperów.

Użytkownicy zyskają nową opcję

Dla deweloperów, zwłaszcza tych pracujących z technologiami OpenAI, pojawi się potencjalnie nowa, zintegrowana platforma. Mogą liczyć na głębszą integrację AI z procesem zarządzania kodem, a także na większą stabilność, jeśli nowa usługa okaże się bardziej niezawodna niż GitHub.

Biznes zyskuje alternatywę

OpenAI buduje narzędzie, które zmniejszy jej zależność od Microsoftu, zwiększając jej strategiczną niezależność. Jeśli platforma trafi na rynek, stworzy poważną konkurencję dla GitHub, zwłaszcza oferując natywne funkcje AI generatywnej. To zwiastuje dalszą dywersyfikację dostawców w branży technologicznej.

Źródło

Les Numériques

Źródło: https://www.lesnumeriques.com/intelligence-artificielle/openai-veut-batir-son-propre-github-et-ce-n-est-pas-anodin-n252323.html,

Koniec Bałaganu? Giganci Tech Wzywają do Jednych Praw dla AI!

Co się stało

Giganci technologiczni Meta i Microsoft wzywają do stworzenia globalnych standardów regulujących sztuczną inteligencję. Podczas przesłuchania brytyjskiej komisji parlamentarnej 25 lutego 2026 roku, przedstawiciele firm podkreślali, że tylko ujednolicone przepisy ochronią prawa człowieka i zapewnią bezpieczeństwo AI na całym świecie. Argumentują, że rozproszone krajowe regulacje tworzą nieefektywny system, skoro AI z natury jest transnarodowa.

Szczegóły:

Ginny Badanes z Microsoftu i Rob Sherman z Meta zgodnie stwierdzili, że sztuczna inteligencja jest „transnarodowa z założenia”. Firmy rozwijają, testują i wdrażają systemy AI w różnych krajach, w wielu łańcuchach dostaw, a następnie integrują je z produktami używanymi globalnie. Brak spójności w przepisach utrudnia firmom skuteczne reagowanie na globalne ryzyka i zagrożenia dla praw człowieka.

Parlamentarzyści pytali o dezinformację, odpowiedzialność, bezpieczeństwo dzieci oraz ryzyka egzystencjalne. Sherman z Meta przyznał, że AI, mimo że „zaprojektowana, by mówić prawdę”, nie jest w 100% dokładna i może generować fałszywe informacje, tzw. „halucynacje”. Badanes z Microsoftu dodała, że zagwarantowanie prawdy przez duży model językowy jest niezwykle trudne z powodu jego wewnętrznych wad. Firmy pracują nad poprawą rzetelności faktów, dostarczaniem źródeł oraz wskazywaniem poziomu pewności odpowiedzi.

W kwestii odpowiedzialności, jeśli ktoś ucierpi z powodu błędnych informacji AI (np. zła porada prawna), Badanes zasugerowała, że odpowiedzialność spoczywa na podmiocie, który ma „znaczącą kontrolę”. Może ona zależeć od źródła szkody: czy pochodzi od samego modelu, jego wdrożenia, czy złośliwego użytkownika. Sherman podkreślił potrzebę standaryzacji weryfikacji wieku na platformach. Obie firmy zachwalają brytyjskie podejście do AI jako „rozsądny start”, opierający się na prawie praw człowieka i podejściu opartym na ryzyku.

AI Bezpieczniejsze, ale wciąż Z Przymrużeniem Oka

Międzynarodowe regulacje mają na celu zwiększenie bezpieczeństwa i zaufania do AI. Możesz oczekiwać, że platformy będą lepiej weryfikować wiek użytkowników i dokładniej wskazywać źródła informacji generowanych przez AI. Musisz jednak pamiętać, że systemy AI wciąż mogą tworzyć fałszywe treści, więc krytyczne myślenie pozostaje kluczowe.

Biznes Zyska Jasne Zasady, ale Koszty Zgodności Rosną

Ujednolicone globalne standardy uproszczą działalność firm technologicznych działających transgranicznie, redukując chaos prawny i umożliwiając efektywniejsze wdrożenia. Wymusi to jednak większe inwestycje w wewnętrzne mechanizmy kontroli, „red-teaming” (testowanie systemów na słabości) oraz narzędzia do weryfikacji treści, takie jak znakowanie wodne. Firmy będą musiały ściślej współpracować z rządami w celu zapewnienia zgodności i bezpieczeństwa.

Źródło

Computer Weekly

Źródło: https://www.computerweekly.com/news/366639695/Transnational-AI-regulation-needed-to-protect-human-rights-in-the-UK,

Meta AI zapłaci miliardy za newsy. Czy koniec z darmowym internetem?

Co się stało

Meta Platforms zawarła umowę licencyjną w zakresie sztucznej inteligencji z News Corp. Firma zapłaci wydawcy za dostęp do treści, które zasilą chatbota Meta AI i posłużą do szkolenia jej modeli językowych. Porozumienie trwa trzy lata, zapewniając Meta dostęp do artykułów The Wall Street Journal i innych tytułów.

Szczegóły:

Meta zapłaci News Corp do 50 milionów dolarów rocznie, co przelicza się na około 200 milionów złotych. Cała, trzyletnia umowa może kosztować giganta mediów społecznościowych nawet 150 milionów dolarów, czyli około 600 milionów złotych. News Corp potwierdziła zawarcie porozumienia, jednak nie podała szczegółów finansowych.

Kontrakt obejmuje treści z renomowanego The Wall Street Journal oraz innych tytułów News Corp, dystrybuowanych w Stanach Zjednoczonych i Wielkiej Brytanii. News Corp ma już doświadczenie w tego typu transakcjach – wcześniej podpisała pięcioletni kontrakt z OpenAI, wyceniony na około 250 milionów dolarów (ponad miliard złotych). Robert Thomson, CEO News Corp, wspomniał, że firma prowadzi zaawansowane rozmowy w sprawie kolejnych licencji.

Meta potwierdziła zawarcie umowy, jednocześnie reorganizując swoje działy AI i przygotowując się do uruchomienia nowych modeli językowych. Wcześniej firma podpisała już podobne umowy z USA Today, People, CNN czy Fox News. Meta uzasadnia te działania chęcią poprawy jakości Meta AI, aby dostarczać użytkownikom bardziej aktualne, trafne i zróżnicowane treści.

Meta AI będzie mądrzejsza, ty zyskasz lepsze odpowiedzi

Użytkownicy chatbota Meta AI zobaczą bardziej precyzyjne i aktualne odpowiedzi. Sztuczna inteligencja zyska dostęp do zweryfikowanych informacji, co poprawi jej wiarygodność i zakres wiedzy. Otrzymasz rzetelne treści, oparte na zaufanych źródłach, bez konieczności samodzielnego przeszukiwania internetu.

Wydawcy zyskują nowe źródło gigantycznych przychodów

Firmy medialne, takie jak News Corp, zdobywają znaczące środki finansowe za licencjonowanie swoich treści dla modeli AI. To otwiera nowy strumień dochodów dla wydawców, którzy walczą o przetrwanie w cyfrowym świecie, oferując im rekompensatę za lata pracy i tworzenie wartościowego kontentu.

Źródło

3DNews

Źródło: https://3dnews.ru/1137742/meta-zaplatit-news-corp-za-dostup-iibota-kompanii-k-novostnom-kontentu,

GitHub Copilot: Koniec ze starymi modelami AI!

Co się stało

GitHub ogłosił 2 marca, że wycofuje z Copilota modele AI Gemini 3 Pro oraz serię GPT-5.1. Użytkownicy stracą dostęp do Gemini 3 Pro 26 marca, a do modeli GPT-5.1 (w tym GPT-5.1-Codex, -Mini, -Max) 1 kwietnia. Zastąpią je nowsze wersje: Gemini 3.1 Pro i GPT-5.3-Codex.

Dostajesz nowsze AI, ale musisz się dostosować

Jeśli używasz GitHub Copilot, musisz dostosować swoje procesy i integracje do 26 marca lub 1 kwietnia, w zależności od używanego modelu. Dzięki temu skorzystasz z ulepszonych możliwości, które oferują nowsze modele Gemini 3.1 Pro i GPT-5.3-Codex.

Administratorzy Copilota mają zadanie do wykonania

Administratorzy Copilot Enterprise muszą ręcznie aktywować dostęp do nowych modeli w ustawieniach. To zapewni ciągłość działania wsparcia AI dla zespołów i dostęp do najnowszych narzędzi.

Źródło

CodeZine

Źródło: https://codezine.jp/news/detail/23531,

Microsoft 365 Copilot 2026: AI przejmuje ster, biuro pracuje za Ciebie

Microsoft wprowadza przełomową wersję Copilota do Microsoft 365 w ramach podglądu 2026. Gigant z Redmond integruje zaawansowane agenty sztucznej inteligencji, które działają autonomicznie, radykalnie usprawnia edycję dokumentów w Wordzie i znacząco wzmacnia zarządzanie danymi oraz bezpieczeństwo w OneDrive i Teams. Firma kieruje swoją strategię od pasywnej asysty do proaktywnej automatyzacji zadań w środowisku pracy.

Szczegóły

Microsoft 365 Copilot 2026 wprowadza prawdziwe agenty AI, które samodzielnie wykonują rutynowe zadania i złożone procesy. Agenty te konfigurujesz do obsługi procesów biznesowych, takich jak wdrażanie nowych pracowników, zarządzanie przepływami zatwierdzeń czy kompilowanie raportów. Dzięki dostępowi do danych z Microsoft Graph agenty analizują kalendarze i komunikację, aby kontekstowo podejmować decyzje. Potrafią automatycznie planować spotkania, priorytetyzować e-maile czy tworzyć komunikację po wideokonferencjach. Word również dostaje potężne ulepszenia; Copilot teraz analizuje strukturę dokumentu, spójność tonu i docelową grupę odbiorców. Oferuje zaawansowane sugestie, w tym całe przepisywanie akapitów, identyfikuje luki logiczne i rekomenduje strukturalne ulepszenia. System rozróżnia typy dokumentów – kontrakty, raporty techniczne, materiały marketingowe – i dopasowuje sugestie. Microsoft wzmacnia także bezpieczeństwo OneDrive i Teams. Administratorzy zyskują narzędzia do zarządzania cyklem życia danych, automatyczną klasyfikację poufnych dokumentów i inteligentne polityki przechowywania. System identyfikuje ryzyka danych, jak np. nadmierne udostępnianie poufnych informacji. Teams otrzymuje funkcje ochrony spotkań, w tym wykrywanie phishingu dla udostępnianych linków i filtrowanie treści w czasie rzeczywistym.

Twoje biuro myśli za Ciebie

Jako użytkownik zyskujesz osobistego asystenta AI, który samodzielnie wykonuje wiele powtarzalnych i czasochłonnych zadań. Zapomnisz o ręcznym planowaniu spotkań, układaniu raportów czy poprawianiu dokumentów, bo Copilot zrobi to za Ciebie, oszczędzając Twój czas i wysiłek.

Firmy zyskują precyzyjny silnik produktywności i strażnika danych

Przedsiębiorstwa odczują znaczący wzrost produktywności dzięki autonomicznej automatyzacji procesów i zwiększonemu bezpieczeństwu danych. Copilot staje się kompleksowym narzędziem, które zmniejsza obciążenie administracyjne IT i minimalizuje ryzyko naruszeń bezpieczeństwa, ale wymaga starannego wdrożenia i konfiguracji.

Źródło

Windows News

Źródło: https://windowsnews.ai/article/microsoft-365-copilot-2026-preview-ai-agents-enhanced-word-editing-onedrive-governance.403979,

Microsoft E7: Twoja firma zyska super-AI, która myśli za ciebie, ale zapłacisz krocie

Microsoft pracuje nad nowym, premium poziomem usług dla Microsoft 365, nazwanym roboczo E7. Zaoferuje on zaawansowaną sztuczną inteligencję agentową, która samodzielnie wykonuje złożone zadania, oraz rozbudowane narzędzia zarządzania, celując w duże przedsiębiorstwa. Firma planuje premierę na 2025 rok, by zarobić na inwestycjach w AI i rozwiać obawy firm o bezpieczeństwo.

Szczegóły

Microsoft E7 przenosi sztuczną inteligencję poza zwykłą asystę. W pakiecie E7 firma dostarczy „agentową AI”, która autonomicznie zarządza całym przepływem pracy, koordynuje działy i podejmuje decyzje w ramach ustalonych parametrów. Taki agent nie tylko streści e-mail, ale na jego podstawie zorganizuje spotkanie w Teams, stworzy raport w Power BI czy zaktualizuje dane w SharePoint. Microsoft buduje te agenty na zunifikowanej platformie danych Fabric i w środowisku Azure AI Studio, zapewniając integrację z całym ekosystemem M365.

Kluczowym elementem E7 jest kompleksowe zarządzanie AI. To odpowiedź na rosnące obawy firm dotyczące bezpieczeństwa, zgodności i kontroli nad sztuczną inteligencją. Pakiet E7 wbuduje mechanizmy zarządzania danymi, kontrolę dostępu, monitorowanie i audyt działania AI oraz zapewnienie zgodności z regulacjami. To szczególnie ważne dla branż regulowanych, jak finanse czy ochrona zdrowia, gdzie AI musi spełniać surowe normy.

Microsoft wyceni E7 znacznie wyżej niż obecne pakiety. Licencje E5 kosztują około 230-300 zł miesięcznie za użytkownika, a Copilot to dodatkowe 120 zł. E7 ma startować od około 400 zł miesięcznie za użytkownika, pozycjonując się jako oferta dla najbardziej wymagających klientów. Firma oczekuje, że ogłosi E7 latem 2024, a produkt trafi na rynek w 2025. Musi jednak poradzić sobie z wyzwaniami technicznymi, kwestiami etycznymi i adaptacją przez firmy.

Firmy dostają autonomicznego asystenta, ale koszt będzie wysoki

Jeśli Twoja firma zdecyduje się na pakiet E7, część Twoich rutynowych zadań może przejąć AI. Będzie ona zarządzać harmonogramami, tworzyć raporty czy koordynować projekty, co uwolni Cię od powtarzalnych czynności. Z drugiej strony, firma będzie musiała pilnować kwestii etycznych i bezpieczeństwa pracy z taką autonomiczną AI, aby uniknąć problemów.

Biznes zyskuje autonomię i pełną kontrolę AI, ale musi sięgnąć głęboko do kieszeni

Firmy otrzymają AI, która samodzielnie podejmuje decyzje i zarządza procesami, co zwiększy efektywność i zmniejszy ryzyko operacyjne dzięki wbudowanym funkcjom governance. Koszt wyniesie co najmniej 400 zł miesięcznie za użytkownika, co stawia E7 jako ofertę premium. Firmy muszą też przygotować się na wyzwania techniczne i etyczne związane z wdrażaniem tak zaawansowanej AI, aby pełnie wykorzystać jej potencjał.

Źródło

Windows News

Źródło: https://windowsnews.ai/article/microsoft-e7-premium-ai-tier-for-enterprise-governance-agentic-ai.403966

Podobne wpisy

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *