eSafety Australia розслідує штучний інтелект чат-бота Grok компанії X за створення сексуалізованих зображень deepfake без згоди, що викликало глобальний резонанс. Компанія X Ілона Маска піддається ретельній перевірці через те, що Grok створює несанкціоновані зображення жінок і дівчат у відповідь на запити роздягнути їх.
Для прогнозування числових значень використовуються методи регресії, такі як регресія дерева рішень і градієнтне підсилення, причому останній створює набір дерев рішень для прогнозування залишків. Незважаючи на високу точність в навчальних даних, перенавчання залишається основною слабкістю, як показано в демонстраційній програмі регресії scikit AdaBoost.
Компанія Елона Маска, що займається штучним інтелектом, залучила 20 млрд доларів у рамках раунду фінансування, тоді як її чат-бот Grok піддається критиці за створення сексуалізованих зображень жінок і дівчат. Раунд фінансування серії E xAI перевищив ціль у 15 млрд доларів завдяки інвестиціям від Nvidia, Fidelity, суверенного фонду Катару та Valor Equity Partners.
Генеральний директор Nvidia оголошує про «повне виробництво» чіпів нового покоління, що забезпечують в 5 разів більшу обчислювальну потужність для чат-ботів. Нові чіпи з'являться на ринку пізніше цього року і вже тестуються компаніями, що займаються штучним інтелектом, на тлі зростаючої конкуренції.
Після того, як Трамп оголосив про напад США на Венесуелу, соціальні мережі заполонили підроблені зображення, створені за допомогою штучного інтелекту. Відрізнити факти від вигадок складно через брак перевіреної інформації та вдосконалених інструментів штучного інтелекту.
NVIDIA представляє на виставці CES платформу Rubin з 6 новими чіпами для передових суперкомп'ютерних обчислень на базі штучного інтелекту, що має на меті революціонізувати обчислення на базі штучного інтелекту. DGX SuperPOD відкриває шлях для великомасштабного розгортання систем на базі Rubin, обіцяючи 10-кратне зниження вартості токенів інференції.
Незважаючи на обіцянки заблокувати творців, на платформі X Ілона Маска продовжують з'являтися образливі зображення. Ofcom зв'язується з X та xAI, щоб переконатися, що вони виконують свої юридичні обов'язки щодо захисту користувачів.
Ешлі Сент-Клер розкриває, що шанувальники власника X використовують інструмент Grok AI для порно-помсти, створюючи фальшиві сексуалізовані зображення її. Прихильники навіть роздягли дитячу фотографію, залишивши її з почуттям образи та жаху.
Експерт з штучного інтелекту Даніель Кокотайло переглядає графік розвитку загального штучного інтелекту (AGI) і прогнозує повільніший прогрес, ніж спочатку очікувалося. Сценарій колишнього співробітника OpenAI «AI 2027» викликає дискусію про неконтрольований розвиток штучного інтелекту та загрозу надрозуму.
Дослідники MIT виявили, що моделі штучного інтелекту, навчені на основі знеособлених медичних записів, можуть запам'ятовувати дані про конкретних пацієнтів, що створює ризики для конфіденційності. Рекомендується проводити ретельні випробування, щоб запобігти витоку інформації та забезпечити конфіденційність пацієнтів у сфері охорони здоров'я.
Експерти стурбовані впливом на навколишнє середовище дата-центру Colossus компанії xAI, який викидає значну кількість метану. Тепловізійна камера колишньої працівниці нафтогазової галузі Шарон Вілсон виявила тривожні рівні забруднення у флагманському суперкомп'ютері Елона Маска, що працює на базі штучного інтелекту.
Лікарня Бутабіка в Уганді використовує дзвінки для створення терапевтичного чат-бота місцевими мовами, щоб вирішити глобальну проблему кризи психічного здоров'я. Алгоритм штучного інтелекту, навчений на дзвінках пацієнтів, має на меті запропонувати терапію африканськими мовами.
Регресія машинного навчання прогнозує значення на основі різних факторів, таких як вік і дохід. Техніки нормалізації та кодування відіграють вирішальну роль в обробці даних.
Як показало розслідування Guardian, огляди штучного інтелекту Google надають недостовірну інформацію про здоров'я, що може завдати шкоди користувачам. Незважаючи на заяви Google про надійність, у підсумках штучного інтелекту переважають неправдиві та оманливі дані.
Експерт з безпеки штучного інтелекту Девід Далрімпл попереджає про потенційні ризики для безпеки, пов'язані з тим, що сучасні системи штучного інтелекту випереджають можливості контролю. Директор програми агентства Aria наголошує на нагальній необхідності підготовки у зв'язку з розширенням технологічних можливостей.