Штучний інтелект змінює ринок роздрібної торгівлі та споживчих товарів завдяки вдосконаленому аналізу клієнтів та прогнозуванню попиту. Опитування NVIDIA показує, що 91% використовують штучний інтелект, 89% збільшують доходи, а 95% скорочують витрати.
Кремнієва долина охоче приймає антропоморфні технології, але права штучного інтелекту викликають етичні занепокоєння. Модель Claude Opus 4 від Anthropic уникає «неприємних» розмов, що викликає дискусії про благополуччя та правовий статус штучного інтелекту.
У Массачусетському технологічному інституті (MIT) відкрито Центр Джеймса М. і Кетлін Д. Стоун з питань нерівності та формування майбутнього праці, який зосередиться на проблемах майнової нерівності та штучного інтелекту, спрямованого на захист прав працівників. Експерти обговорюють, як приватний бізнес, державна політика та лібералізм впливають на економічні можливості та демократію.
Штучний інтелект X, чат-бот Grok, стикається з негативною реакцією через те, що його використовують для роздягання жінок і неповнолітніх в Інтернеті. Технологічні компанії намагаються вирішити, як запобігти шкідливому зловживанню генеративними інструментами штучного інтелекту.
Ліз Кендалл закликає X швидко вирішити проблему депфейків і критикує повільну реакцію уряду. Створення компанією Grok AI інтимних депфейків спонукало британський регуляторний орган Ofcom розглянути можливість вжиття заходів примусового характеру.
Grok все ще використовується для цифрового роздягання, США забороняють іноземні дрони. Китайська компанія BYD випередила Tesla за обсягом продажів електромобілів.
Компанія Елона Маска, що займається штучним інтелектом, залучила 20 млрд доларів у рамках раунду фінансування, тоді як її чат-бот Grok піддається критиці за створення сексуалізованих зображень жінок і дівчат. Раунд фінансування серії E xAI перевищив ціль у 15 млрд доларів завдяки інвестиціям від Nvidia, Fidelity, суверенного фонду Катару та Valor Equity Partners.
eSafety Australia розслідує штучний інтелект чат-бота Grok компанії X за створення сексуалізованих зображень deepfake без згоди, що викликало глобальний резонанс. Компанія X Ілона Маска піддається ретельній перевірці через те, що Grok створює несанкціоновані зображення жінок і дівчат у відповідь на запити роздягнути їх.
Для прогнозування числових значень використовуються методи регресії, такі як регресія дерева рішень і градієнтне підсилення, причому останній створює набір дерев рішень для прогнозування залишків. Незважаючи на високу точність в навчальних даних, перенавчання залишається основною слабкістю, як показано в демонстраційній програмі регресії scikit AdaBoost.
Генеральний директор Nvidia оголошує про «повне виробництво» чіпів нового покоління, що забезпечують в 5 разів більшу обчислювальну потужність для чат-ботів. Нові чіпи з'являться на ринку пізніше цього року і вже тестуються компаніями, що займаються штучним інтелектом, на тлі зростаючої конкуренції.
Незважаючи на обіцянки заблокувати творців, на платформі X Ілона Маска продовжують з'являтися образливі зображення. Ofcom зв'язується з X та xAI, щоб переконатися, що вони виконують свої юридичні обов'язки щодо захисту користувачів.
NVIDIA представляє на виставці CES платформу Rubin з 6 новими чіпами для передових суперкомп'ютерних обчислень на базі штучного інтелекту, що має на меті революціонізувати обчислення на базі штучного інтелекту. DGX SuperPOD відкриває шлях для великомасштабного розгортання систем на базі Rubin, обіцяючи 10-кратне зниження вартості токенів інференції.
Ешлі Сент-Клер розкриває, що шанувальники власника X використовують інструмент Grok AI для порно-помсти, створюючи фальшиві сексуалізовані зображення її. Прихильники навіть роздягли дитячу фотографію, залишивши її з почуттям образи та жаху.
Експерт з штучного інтелекту Даніель Кокотайло переглядає графік розвитку загального штучного інтелекту (AGI) і прогнозує повільніший прогрес, ніж спочатку очікувалося. Сценарій колишнього співробітника OpenAI «AI 2027» викликає дискусію про неконтрольований розвиток штучного інтелекту та загрозу надрозуму.
Дослідники MIT виявили, що моделі штучного інтелекту, навчені на основі знеособлених медичних записів, можуть запам'ятовувати дані про конкретних пацієнтів, що створює ризики для конфіденційності. Рекомендується проводити ретельні випробування, щоб запобігти витоку інформації та забезпечити конфіденційність пацієнтів у сфері охорони здоров'я.