Малцина са чували за американската компания BRS Labs. Същевременно, само за година нейният оборот скочи десетократно - до 200 млн. долара. Тя отвори офиси в Хюстън, Сао Пауло и Лондон. Успехът на BRS (което е съкращение за „Системи за разпознаване на поведението") се дължи на един техен продукт - софтуерът за наблюдение AISight.
Програмата прави истинска революция във видеонаблюдението на летища и гари по целия свят. С негова помощ камерите вече са „умни" - софтуерът следи в реално време видеосигнала и открива „подозрителното или ненормално" поведение. В момента, в който някой остави куфар, слезе от кола на странно място или се покатери по оградата, софтуерът съобщава това на оператора.
Това е мечтата на полицейските служби и частните охранителни фирми по света. По цялото земно кълбо има общо около 50 млн. охранителни камери. Зад тях са армии от служители, които прекарват часове пред стени от монитори, но персоналът никога не стига, за да се следи какво се случва пред обектива на всяка камера във всеки един момент. От друга страна, софтуерът не се изморява, не иска обедна почивка и не губи концентрация.
От двете страни на Атлантика
Европейските страни инвестират значително в подобни проекти. Немското Федерално министерство на образованието и научните изследвания задели 21 млн. евро за девет 3-годишни проекта за разработката на софтуер, който разпознава лица, оръжие и съмнително поведение.
Според Оливер Рьобке от мюхенската компания Indanet, резултатите до този момент са незадоволителни. Той и колегите му разработили алгоритъма ADIS, който разпознава нетипично поведение в метростанции и така би помогнал за разпознаването на нападения, безредици и други. Проектът бил подложен на голям натиск от страна на политици и журналисти и поради това изпитанията не може да се провеждат в реална обстановка.
Американската система AISight е на пазара от три години. За разлика от немските си колеги, американските инженери не разчитат на задаване на правила за всяка отделна камера. AISight се обучава сама - подобно на невронна мрежа, тя трупа опит и се учи какво е „правилното" в дадена ситуация. Неслучайно и на сайта на компанията се посочва, че компютърът „наблюдава, учи се и, да, мисли".
Този подход поражда спорове между европейци и американци. Според разработчиците на ADIS, "ако системата научава нови неща в хода на работата си, тя вече не може да бъде контролирана". Специалистите от BRS контрират с тезата, че вграждането на „твърди" правила за разрешено и забранено в автоматизирана система за видеонаблюдение е остарял похват.
„Европа изостава в технологиите за сигурност", коментира Бен Хайес от организацията Statewatch, който следи гражданските права в Европа. Въпреки това, има други доводи срещу комплексните системи за видеонаблюдение. Според експерт от Института за правна и криминална социология във Виена, „надеждността на превантивното наблюдение е условна" и резултатите могат да бъдат повлияни от околната среда и даже най-обикновената промяна на светлината.
Това беше усетено и от немските власти през 2007 г., когато инсталираха технология за разпознаване на лица на централната гара в Майнц. Тогава се оказа, че просто няма достатъчно светлина за камерите, за да могат надеждно да разпознаят лицата на пътуващите.
Бизнес за много пари
Технологиите се развиват, а интелигентните системи за наблюдение стават все по-привлекателни за IT сектора. Според американски експерти, пазарът за подобен тип продукти ще се разрасне 4 пъти до 2016 г. В този смисъл, не е изненадващо и че държави като Германия се опитват да бъдат „на гребена на вълната".
Европейският съюз също иска да автоматизира наблюдението на своите външни граници, като за целта за заделени цели 60 млн. евро. Работи се и по изключително амбициозни проекти като Oparus (въздушна флота от безпилотни разузнавателни самолети) и Wimaas (за създаването на патрулни роботи). Въпреки това, резултатите и тук са спорни - голяма част от оборудването на струващата 3.5 млн. евро система за морско наблюдение Amass се оказа под водата заради лошо време.
От етична гледна точка
Интелигентното наблюдение повдига и някои фундаментални въпроси. „Разпознаването на поведение е чувствителна тема, защото обвързва аналоговото с дигиталното", коментира Тило Вейхерт, който отговаря за защитата на личните данни в германската провинция Шлесвиг-Холщайн. Според него решенията трябва да се вземат от хора, а не от машини, а трябва и да се помисли как да бъдат защитени правата на хората, които не вършат нищо нередно.
Регина Амихт Куин от Международния център за научна етика в Тюбинген посочва, че има значение и кой ще зададе критериите, по които ще работят наблюдателните системи. „Ако те идват от експерти, съществува риск софтуерът да бъде програмиран спрямо едно твърде специфично гледище за света. Ако критериите са базирани на статистически данни, на хората ще бъде наложено да правят това, което камерите са „свикнали" да виждат", обяснява тя.
police everywhere, justice nowhere
Точно като във филма "Орлово око".
Person of Interest е на тая тематика. Да се чуди човек кое е първично- филма или технологиите.
"неутрална мрежа" ?! А може би "невронна мрежа" ?
В България вече почти от година е в ход подобна програма (МВР има подписан договор за внедряването й, а част от нея се разработва в ТУ-София). http://www.indect-project.eu/