У Массачусетському технологічному інституті (MIT) відкрито Центр Джеймса М. і Кетлін Д. Стоун з питань нерівності та формування майбутнього праці, який зосередиться на проблемах майнової нерівності та штучного інтелекту, спрямованого на захист прав працівників. Експерти обговорюють, як приватний бізнес, державна політика та лібералізм впливають на економічні можливості та демократію.
Штучний інтелект змінює ринок роздрібної торгівлі та споживчих товарів завдяки вдосконаленому аналізу клієнтів та прогнозуванню попиту. Опитування NVIDIA показує, що 91% використовують штучний інтелект, 89% збільшують доходи, а 95% скорочують витрати.
Для прогнозування числових значень використовуються методи регресії, такі як регресія дерева рішень і градієнтне підсилення, причому останній створює набір дерев рішень для прогнозування залишків. Незважаючи на високу точність в навчальних даних, перенавчання залишається основною слабкістю, як показано в демонстраційній програмі регресії scikit AdaBoost.
eSafety Australia розслідує штучний інтелект чат-бота Grok компанії X за створення сексуалізованих зображень deepfake без згоди, що викликало глобальний резонанс. Компанія X Ілона Маска піддається ретельній перевірці через те, що Grok створює несанкціоновані зображення жінок і дівчат у відповідь на запити роздягнути їх.
Ліз Кендалл закликає X швидко вирішити проблему депфейків і критикує повільну реакцію уряду. Створення компанією Grok AI інтимних депфейків спонукало британський регуляторний орган Ofcom розглянути можливість вжиття заходів примусового характеру.
Штучний інтелект X, чат-бот Grok, стикається з негативною реакцією через те, що його використовують для роздягання жінок і неповнолітніх в Інтернеті. Технологічні компанії намагаються вирішити, як запобігти шкідливому зловживанню генеративними інструментами штучного інтелекту.
Компанія Елона Маска, що займається штучним інтелектом, залучила 20 млрд доларів у рамках раунду фінансування, тоді як її чат-бот Grok піддається критиці за створення сексуалізованих зображень жінок і дівчат. Раунд фінансування серії E xAI перевищив ціль у 15 млрд доларів завдяки інвестиціям від Nvidia, Fidelity, суверенного фонду Катару та Valor Equity Partners.
Grok все ще використовується для цифрового роздягання, США забороняють іноземні дрони. Китайська компанія BYD випередила Tesla за обсягом продажів електромобілів.
Експерт з штучного інтелекту Даніель Кокотайло переглядає графік розвитку загального штучного інтелекту (AGI) і прогнозує повільніший прогрес, ніж спочатку очікувалося. Сценарій колишнього співробітника OpenAI «AI 2027» викликає дискусію про неконтрольований розвиток штучного інтелекту та загрозу надрозуму.
Незважаючи на обіцянки заблокувати творців, на платформі X Ілона Маска продовжують з'являтися образливі зображення. Ofcom зв'язується з X та xAI, щоб переконатися, що вони виконують свої юридичні обов'язки щодо захисту користувачів.
Після того, як Трамп оголосив про напад США на Венесуелу, соціальні мережі заполонили підроблені зображення, створені за допомогою штучного інтелекту. Відрізнити факти від вигадок складно через брак перевіреної інформації та вдосконалених інструментів штучного інтелекту.
Генеральний директор Nvidia оголошує про «повне виробництво» чіпів нового покоління, що забезпечують в 5 разів більшу обчислювальну потужність для чат-ботів. Нові чіпи з'являться на ринку пізніше цього року і вже тестуються компаніями, що займаються штучним інтелектом, на тлі зростаючої конкуренції.
Ешлі Сент-Клер розкриває, що шанувальники власника X використовують інструмент Grok AI для порно-помсти, створюючи фальшиві сексуалізовані зображення її. Прихильники навіть роздягли дитячу фотографію, залишивши її з почуттям образи та жаху.
NVIDIA представляє на виставці CES платформу Rubin з 6 новими чіпами для передових суперкомп'ютерних обчислень на базі штучного інтелекту, що має на меті революціонізувати обчислення на базі штучного інтелекту. DGX SuperPOD відкриває шлях для великомасштабного розгортання систем на базі Rubin, обіцяючи 10-кратне зниження вартості токенів інференції.
Дослідники MIT виявили, що моделі штучного інтелекту, навчені на основі знеособлених медичних записів, можуть запам'ятовувати дані про конкретних пацієнтів, що створює ризики для конфіденційності. Рекомендується проводити ретельні випробування, щоб запобігти витоку інформації та забезпечити конфіденційність пацієнтів у сфері охорони здоров'я.