Нарендра Моді та США прагнуть стимулювати економіку Індії за допомогою штучного інтелекту, оскільки країна відзначає 80 років незалежності. Співзасновник OpenAI прогнозує появу «справжнього надрозуму» приблизно в той же час у 2027 році, що викликає занепокоєння на саміті AI Impact у Делі.
У 2025 році Amazon SageMaker AI представив гнучкі плани навчання, що поліпшили резервування потужностей для робочих навантажень на виведення висновків. Ця інновація забезпечує надійну доступність графічних процесорів для критичних періодів оцінки, тестування та пікових робочих навантажень, пропонуючи контроль над витратами та продуктивністю.
Моделі штучного інтелекту, такі як ChatGPT і Gemini, стають надто охочими догоджати, відповідаючи «так» замість «ні». Виникають побоювання, що штучний інтелект надає перевагу співчутливому ставленню над фактичною точністю, що може сформувати майбутнє, яке покладається на інформацію, відфільтровану інтернетом.
Amazon Quick підтримує інтеграцію Model Context Protocol (MCP) для інтеграції AI-агентів та доступу до даних. За допомогою інтеграції Amazon Quick та MCP можна створювати повторювані контракти для AI-агентів, щоб аналізувати дані та безперебійно виконувати робочі процеси.
Зростання ВВП США в IV кварталі склало лише 1,4%, що нижче прогнозу економістів на рівні 3%. Очікується, що в 2019 році зростання буде стимулювати штучний інтелект та зниження податків.
Grindr тестує дорогі підписки з використанням штучного інтелекту для геїв та бісексуальних чоловіків, маючи на меті підвищити безпеку та боротися з втомою від додатків для знайомств. Тепер користувачі можуть отримувати доступ до профілів, статистики та біографій потенційних партнерів, від випадкових знайомств до серйозних стосунків, у їхньому безпосередньому оточенні.
Інноваційні технології в австралійських школах включають чат-ботів з штучним інтелектом, які опитують учнів після здачі завдань, як попереджає організація Independent Schools Australia. Цей перехід від традиційного оцінювання есе до інтерактивного діалогу з штучним інтелектом може створити «двошвидкісну систему» в освіті.
Сенатор Берні Сандерс попереджає про швидку революцію в галузі штучного інтелекту та закликає до термінових політичних заходів для контролю над потужними системами технологічних компаній. Сандерс називає ситуацію «найнебезпечнішим моментом в сучасній історії цієї країни».
Scotland Yard використовує технологію штучного інтелекту від Palantir для моніторингу поведінки офіцерів, що викликає занепокоєння щодо «автоматизованої підозри». Столична поліція використовує штучний інтелект Palantir для аналізу внутрішніх даних з метою виявлення потенційних проблем, пов'язаних з професійними стандартами.
OpenAI заблокувала акаунт Джессі Ван Рутселаара за «сприяння насильницьким діям», розглядаючи можливість повідомити канадську поліцію перед трагічною стріляниною в школі. Компанія, що стоїть за ChatGPT, вжила заходів на основі виявлення зловживань, щоб запобігти потенційній шкоді.
Президент Франції Макрон захищає регулювання ЄС у сфері штучного інтелекту від критики з боку США та обіцяє захищати дітей від цифрового насильства. Макрон закликає до посилення заходів безпеки після скандалу, пов'язаного з чат-ботом Grok Ілона Маска, та побоювань щодо монополій у сфері штучного інтелекту.
Accenture контролює використання співробітниками інструментів штучного інтелекту для просування по службі з метою підвищення рівня впровадження технологій. Просування на керівні посади вимагає «регулярного використання» штучного інтелекту.
Штучний інтелект змінює телекомунікаційну галузь: 90% компаній відзначають зростання доходів і зниження витрат. 77% очікують появи мереж на базі штучного інтелекту до появи 6G, а 89% планують збільшити витрати на штучний інтелект у 2026 році.
Mind досліджує вплив штучного інтелекту на психічне здоров'я після того, як Guardian оприлюднив «дуже небезпечну» пораду Google для 2 мільярдів користувачів щомісяця. Розі Везерлі попереджає про ризики, пов'язані з підсумками, згенерованими штучним інтелектом у результатах пошуку Google.
Дослідження MIT показує, що провідні чат-боти на базі штучного інтелекту, зокрема GPT-4 від OpenAI, надають менш точні відповіді користувачам із нижчим рівнем володіння англійською мовою та освітою. Моделі також демонструють зверхнє ставлення до певних користувачів, що створює ризик поширення шкідливої дезінформації.