Изкуственият интелект е тук

В първия неделен следобед на 2015-та, Илън Мъск* излиза на сцената на конференция. Той обсъжда пред ограничена аудитория в пуерторикански курорт тема за "експлозията на интелекта". Този стряскащ теоретичен термин се отнася за неконтролируемия хипер-скок в когнитивните способности на изкуствения интелект, който според Мъск и физика Стивън Хокинг може някой ден да сложи край на съществуването на човешката раса.

Това, че някой с популярността на Мъск говори на конференция за етиката на изкуствения интелект - отдавна считана за тема единствено за учени - е забележително.

Самата конференция, носеща оптимистичното заглавие "Бъдещето на Изкуствения Интелект (ИИ): възможности и предизвикателства", представялва безпрецедентна среща на някои от най-интелигентните хора на света. Тя събира на едно място специалистът по етика на ИИ от Оксфорд Ник Бостром и едри риби от IT бизнеса, като основателя на Skype Ян Талин, както и експерта по ИИ в Google Шейн Лег.

И Илън Мъск, и Стивън Хокинг се притесняват от апокалипсиса, който ИИ може да предизвика някой ден. Но те осъзнават, че има и по-непосредствени заплахи от ИИ.

В последните 5 години, напредъкът в областта на ИИ - и конкретно на област от ИИ алгоритмите, наречена "дълбоки невронни мрежи" - поставя основаните на "изксутвен интелект" продукти на централна позиция в живота ни.

Google, Facebook, Microsoft и Baidu и много други наемат учени-специалисти по изкуствен интелект и с безпрецедентни темпове инвестират стотици милиони долари в надпреварата за по-добри алгоритми и по-умни компютри.

Проблемите с ИИ, които изглеждаха почти непреодолими само преди няколко години, сега вече намират решение.

"Дълбокото самообучение" (Deep learning) засили възможностите за разпознаване на говор на Android и снабди Skype с уникални възможности за незабавен превод.

Google вече създава самоуправляващи се автомобили и компютърни системи, които могат да се самообучават и които дори вече могат да идентифицират видеа с котки.

Кучета-роботи пък вече могат да се движат, до голяма степен, подобно на живите си събратя.

"Неща от рода на компютърна визия започват да работят; разпознаването на говор също започва да работи. Развитието на ИИ системите доста се ускори", казва Барт Селман, професор в Корнелския университет и специалист по ИИ етика, който присъства и на конференцията с Мъск. "И това прави още по-належащо разглеждането въпроса".

Като се има предвид бързото развитие, Мъск и други анализатори призовават създаващите такива продукти внимателно да обмислят етичните аспекти.

На конференцията в Пуерто Рико, делегатите подписаха отворено писмо, в което поемат ангажимента да провеждат изследвания на ИИ за добри цели, "избягвайки потенциални клопки".

Мъск също е сред подписалите писмото. "Всички водещи изследователи заявяват, че безопасността на ИИ е много важна", коментира той. "И в това отношение съм съгласен с тях".

Google също са на борда

Девет учени от DeepMind, компанията за ИИ, която Google купи миналата година, също подписаха писмото.

Историята зад този документ обаче датира чак от 2011 година. Тогава Ян Талин се запознава с Демис Хасабис, след като присъства на негова презентация на конференция за изкуствен интелект.

Хасабис наскоро е основал стартиращата компания за ИИ DeepMind и Талин си поставя мисия. След основаването на Skype той става "евангелист" по въпросите на ИИ безопасността и търси други хора, които да "евангелизира" за каузата си.

Двамата започват да обсъждат ИИ и Талин скоро инвестира в DeepMind, а миналата година Google платиха 400 млн. долара за компанията, която има 50-членен екип.

Така с един удар Google получиха най-голямата общност от таланти сред експертите по "дълбоко самообучение" в света.

Google пазят в дълбока тайна амбициите си за DeepMind - компанията не позволява на Хасабис да дава интервюта - но едно е ясно: DeepMind извършват изследвания, които биха позволили на робот или самоуправляващ се автомобил да се ориентира по-добре в средата си.

И това донякъде притеснява Талин.

В презентация, която изнася на конференцията в Пуерто Рико, той си спомня среща, на която Хасабис му показва как е направил система за машинно обучение, която може да играе на класическата аркадна игра от 80-те години Breakout.

Не само че машината е овладяла играта до съвършенство, но и я играе с безупречна ефективност, която шокира Талин. Въпреки че "технологът в мен се възхити на това постижение, другата мисъл, която ми дойде наум, беше, че наблюдавам миниатюрен модел как би започнала ИИ катастрофа. А именно, чрез внезапна демонстрация на неочакван интелектуален капацитет", спомня си Талин.

Определянето на разрешените неща и табутата в научните изследвания е сред основните етични решения, които молекулярните биолози дефинират и на конференцията за ДНК в Асиломар през 1975 година. Тогава те се споразумяват и за стандартите, с които да се предотврати създаването на генетично модифицирани организми, представляващи опасност за обществото.

Конференцията в Асиломар обаче има много по-конкретен резултат от срещата за ИИ в Пуерто Рико.

На конференцията в Пуерто Рико присъстващите подписаха само писмо, обобщаващо изследователските приоритети за ИИ - за изследвания на икономическите и правни ефекти от ИИ например, както и сигурността на ИИ системите.

Буквално преди дни, Илън Мъск вложи 10 млн.долара собствени средства, с които да подпомогне финансово тези изследвания.

Това са важни първи стъпки към възпрепятстване на роботите да съсипят икономиката или като цяло да излязат тотално изпод контрол.

Някои компании обаче вече отиват още по-далеч. Миналата година канадските специалисти по роботика Clearpath Robotics обещаха да не създават автономни роботи за военна употреба.

"Уважаеми хора, противопоставящи се на роботи-убийци: подкрепяме вашата кауза", заяви техническият директор на Clearpath Райън Гариепи на уеб сайта на компанията.

Обещанието да не създаваш Терминатор е само една от необходимите стъпки.

ИИ компаниите като Google трябва да мислят за безопасността и юридическата отговорност на самоуправляващите се техни автомобили, за това дали роботите ще оставят хората без работа, както и за непредвидените последствия от алгоритми, които биха изглеждали несправедливи за хората.

Например етично ли е Amazon да продава продукти на една цена за една общност, определяйки различна цена за друга общност?

Какви предпазни мерки са взети, за да се предотврати търговски алгоритъм да съсипе пазара на стоки за масово потребление? Какво ще се случи на хората, които работят като автобусни шофьори в ерата на самоуправляващите се возила?

Итамар Арел е основател на Binatix, компания за "дълбоко самообучение", която търгува на фондовата борса.

Той не е присъствал на конференцията в Пуерто Рико, но е подписал писмото в мига, в който го е прочел.

За него предстоящата революция в интелигентните алгоритми и евтините, интелигентни роботи трябва да бъде разбрана и проучена по-добре.

"Време е да отделим повече ресурси за разбирането на въздействието върху обществото от ИИ системи, извършващи все по-голяма част от физическия труд", казва той. "Това със сигурност, поне според мен, ще набере скорост с темпове, които няма да позволят на обществото да бъде готово достатъчно бързо за този процес. Това определено е притеснително".

Пресказанията за деструктивен ИИ супер-интелект може и да са това, което привлича масмедиите, но тези по-прозаични притеснения за ИИ са нещо, което трябва да бъде решено като проблем в следващите няколко години, коментира Мъри Шанахан, професор по когнитивна роботика в колежа "Империал" в Лондон. "Трудно е да предскажем точно какво ще се случи, но можем да бъдем абсолютно сигурни, че те ще повлияят по някакъв начин на обществото".

*Илън Мъск е бизнес-магнат, инвеститор и изобретател. Понастоящем е главен изпълнителен директор и главен технически директор на компанията SpaceX (СпейсЕкс), както и главен изпълнителен директор и главен продуктов архитект на Tesla Motors (Тесла Моторс). Също така той е и сред основателите на PayPal

 

#1 impact 18.01.2015 в 20:39:04

ебати, щеше да ми е интересно някой да коментира темата... Наскоро четох една книга на Мичио Каку, която ме прави дълбоко скептичен към страховете на хората от изкуствения интелект

#3 la-marin 19.01.2015 в 12:53:31

Аз не мисля, че ИИ скоро ще се използва за военни цели при наличието на достатъчно хора искащи да си играят на война. Може би единични спец операции но нищо мащабно. По-скоро първите стъпки ще са в анализирането на данни борсови, медицински, правни, Всякаква обработка на масиви. Лабораторни експерименти неща от този сорт. Това си мислех наистина за самообучаващите се ИИ, че може първо да ги пускат по "детските" площадки преди да се занимават със сериозна работа като хората, истинско израстване. Един ИИ с достъп со интернет и огромни библиотеки с информация ще има много по-голям и бърз достъп от всеки човек. Взимането на решения се основава повече на морал и възпитание. В едно общество на човекоядци да консумираш врагът си е напълно в реда на нещата. В голяма степен мисленето и реакциите на ИИ ще са базирани на първоначалното му програмиране.

#6 ais 08.02.2015 в 04:40:48

Мога да кажа впечатленията си от първа ръка. Нашата фирма разработи изкуствен интелект за за собственият ни сайт. В момента се обучава. Добре се справя, доволни сме. На първо време го използвахме само да дава информация на клиентите когато операторите са заети. В последствие с течение на времето започна да замества успешно операторите. Вече съкратихме повечето оператори-хора. Те не са ефективни , трябват им специални условия за работа , отопление , осветление, заплати , осигуровки. Разходите по тях са големи а ефективността им е малка. Изкуственият интелект комуникира едновременно със стотици клиенти. Отговаря на момента, работи непрекъснато по 24 часа в денонощието,не пуши, не почива, не излиза в отпуска , не ползва болнични. Спестява се от заплати ,осигуровки , а също така и от възможни актове от инспекцията по труда. Това е полезно за бизнеса. Все още не го ползваме с максималните му възможности. Стартираме по-етапно отделните модули. Преди няколко дни стартирахме и възможността му освен да дава информация на клиентите да извършва и самостоятелно корекции в поръчки , контакти и комуникация със доставчици,производители, спедитори,изготвяне на справки за данъчната администрация, вземане на решения в зависимост от моментната ситуация с извършване на активни самостоятелни действия включващи и съответните промени в базите данни . За момента всичко е под наш контрол. Интересен е третият модул. Той позволява машината да изгражда един вид личност, своя индивидуалност, да си изгражда собствено мнение и да реагира спрямо своите виждания. Например когато клиента го попита " коя рокля повече ти допада, червената или жълтата ?" . Машината да отговори спрямо собственото си виждане , а не по зададена програма. В момента изкуственият интелект ни е доста полезен но не става за партньор с който можеш да споделиш нещо и да чуеш неговото лично мнение. Стартирането на третия модул наистина, крие рискове, но не мисля ,че е толкова опасно. Все пак винаги можем да дръпнем шалтера на сървара.

#7 explorer 08.02.2015 в 10:51:51

До коментар #6, беше ми интересно мнението ти до последното изречение, което ме разсмя. Разсмя ме защото преди 4-5 месеца на едно интервю за работа във фирма, която се счита за един от големите одитори на ИТ, интервюиращият в опит да покаже колко са сериозни, каза подобно нещо и изпари интереса ми към тяхната работа на момента. Та на въпроса, може и аз да съм деформиран от работата си за глобална фирма и мрежа, но ако мога да кажа едно нещо за ИТ като цяло то е, че времето на изключване на компютъра остана в миналия век. Имаше някакви съмнения за 2000-та година, но от там насетне е толкова възможно, колкото и спирането на автомобилният трафик.

#8 John Smith 08.02.2015 в 12:25:13

Експлорер , очевидно е ,че субекта написал ком.6 няма и идея от технологии... Щом дърпа Шалтера на СървАра...

#9 ais 08.02.2015 в 13:51:21

Е John Smith , много буквално вземате думите ми ! Казвам го в смисъл, че когато нещата опрат до кокала човечеството може и има средствата да дръпне шалтера ръчно. Да отиваме в каменната ера без трафик и прочие , но ще сме живи. Едва ли когато побеснеят военни дронове ще ти е до трафика или до банковата система и тн. Има създадени достатъчно, ефективни оръжия които могат да блокират комуникацията и действието на всякаква електроника.

#11 John Smith 08.02.2015 в 16:09:56

Дедо, аз сайта им го знам... Вземи сега една химикалка и пиши WWW.GOOGLE.COM ps Само да не са дръпнали шалтера ps1 За прогнозата -- мин4о_празников.орг

#13 ais 09.02.2015 в 01:57:51

Заповядай ! www.marketzona.com Но не очаквай ,че ще ти отговори на всичко което я питаш. В момента я обучаваме. Тя има достъп до всички публични ресурси в мрежата но не мисля ,че си струва да тегли информация от там когато не знае нещо. Някак си тъпо е да я питам какво е времето и тя да тегли инфо от мрежата и да ми я преповтаря. Ако искам да знам какво е времето ще си влезна в някой специализиран сайт. Ценното на подобна информационна система е да даде информация която не може да се намери в нета. Информация която е свързана със конкретният сайт който обслужва, както и да предприеме определени действия на базата на получена информация от клиента или потребителя. Ние продаваме дрехи, няма смисъл да искаме от нея информация за това дали има живот на Марс. Няма проблем да пълним базите данни с какво ли не , но това според мен е напразно хабене на ресурси и време за обработка. На нас в случая ни трябва да може да помогне на клиента да се ориентира в сайта, да отговаря на въпроси свързани с продуктите и с поръчките им, да им съдейства при забравена парола или други проблеми с акаунтите им. Да определя и раздава награди на редовните ни клиенти. Да дава съвети на клиентите при определяне на размера на определеният артикул. Да помага на доставчиците при въвеждане на информацията за продуктите, да следи счетоводството и баланса на всички фирми в системата, да комуникира при проблеми с персонала, доставчиците и счетоводствата на отделните фирми. Да изготвя справки, да решава сама проблеми които могат да настъпят при различни ситуации при изпълнението на заявките обединяването на пратките, и други такива. Това е информационна и операционна система на сайта която може да действа самостоятелно, както и да взема решения на ниво оператор. А това за всезнаещият изкуствен интелект който знае всичко и управлява света ..Това нека да го оставим на фантастичните филми. Всъщност мисля , че бъдещето е на подобни системи обслужващи различни ресурси но навързани в мрежа. Мрежа в мрежата. Например наш клиент има проблем с получаването на пратка, трябва да се направи корекция на наложен платеж. В момента клиента се обажда на оператор. Оператора се свързва с оператор на спедиторската фирма като изисква корекцията. Оператора на спедитора в повечето случай се свързва с оператор в местният клон където се извършва и корекцията. И другият вариант. клиента пише в свободен текст на информационната система тя си извършва необходимите проверки на момента по идентификацията на клиента, осъзнаване на проблема , вземане съответното решение , свързва се с подобна система която обслужва спедитора. Системата на спедитора извършва необходимите промени. В същият момент обаче клиента иска с остатъка от сумата да си направи застраховка за автомобила, това отново може да го направи от същият сайт в който се намира. просто изисква да си направи застраховката от информационната система. Естествено системата на сайта за покупка на облекло няма информация и не е програмирана да извършва такива услуги, но това не е проблем , защото в този случай няма тя да обработва и анализира информацията , а това ще го направи нейният побратим от сайта за застраховки. Той ще обработи информацията и ще и изпрати каква информация е нужна да вземе от клиента. / Забележете, тука необходимостта от търсачката се изключва. Това едва ли ще им хареса. / Достатъчно е да имаш достъп до един сайт за да боравиш със стотици други. Това е едно възможно бъдеще ,ако естествено обаче не стане глобален военен конфликт и не ни дръпнат шалтера.

Новините

Най-четените