imagazin arrow2-left arrow2-right arrow2-top arrow-up arrow-down arrow-left arrow-right cart close dossiers education fb instagram menu notification oander rss rss-footer search service shuffle speech-bubble star store stores tests twitter youtube

Промена на батерија по намалена цена!

Направи резервација и промени ја батеријата за 1.990 МКД.

Дигиталните асистенти можат да значат сериозни безбедносни ризици


Им даваме се поголема моќ, но всушност не се грижиме за соодветната сигурност. Истражувачите пронашле начин да создадат звук кој човечките уши не можат да го забележат, но тој може да управува со дигиталните асистенти. Иако Apple не штити, дефинитивно би требало да се загрижиме!

Иако воглавно поради јазичните бариери оваа технологија не е толку распространета кај нас, наклоноста е сепак тука: дигиталните асистенти заземаат се повеќе и повеќе места во нашите секојдневни животи.

Дури ни просечниот паметен дом не може да работи без централен заповеден систем кој има гласовна контрола. Едноставно можете да ги поставите HomePod, Alexa или било кој уред на Google во средина и можете да ги поврзете сите ваши останати уреди како апаратот за кафе, светилките, паметните брави на влезните врати и да му кажете на семоќното око што да направи со нив. Удобно, кул и sci-fi, но како што се испостави, и не така сигурно.

Можевте да слушнете примери како девојче кое нарачало куќа за кукли и две вреќички колачиња на интернет со помош на асистент или за епизодата на South Park која им се исмева на многу домаќинства. Иако овие приказни на прв поглед би можеле да се чинат смешни, неодамнешното истражување би можело да ве загрижи.

Истражувачите од Универзитетот во Калифорнија и Универзитетот во Џорџтаун ги здружија силите и пронајдоа начин како да ги хакираат асистентите со помош на мал трик. Ги напаѓаат со криење на различните наредби во музиката или гласовните снимки кое човечкото уво не може да ги забележи, но можат асистентите.

Со други зборови, додека вие мислите да слушате музика, Siri во позадина на вашата сметка почнува да употребува услуги кои се плаќаат.

Прилично застражувачко зарем не? И ако на тоа дадете дека во денешно време речиси се може да биде под контрола на асистентите, оваа ранливост претставува прилично голем ризик. Отклучување на радиски емисии, тролање на диско хитови, подкасти на импулзивно купување – можностите се бескрајни.

Овој напад се темели на обратниот процес на препознавање на говор. Ако знаете како асистентот го препознава говорот и ги добива сите информации, можете лесно да создадете внес кој е доволен за ушите на асистентот, но не и за нашите. Основниот метод, DolphinAttack, минатата година го претстави група американско-кинески истражувачи. Моментното истражување тоа го одведе чекор понатаму, со можност да додадат знаци и музика. Еве како работи DolphinAttack:

Истражувачите исто така додадоа дека немаат информации за тоа дека некој веќе ја има оваа технологија или за нападите кои се темелат на овој метод. Но, се сомневаат дека многумина би можеле да работат на тоа.

Сега е време програмерите да пронајдат нешто што ќе не заштити од таквите напади. Apple моментно не штити затоа што многу дејства можат да ги спроведат само по проверката на исправноста.

Извор: MacRumors

Apple Inc. (AAPL)

Дали го прочита ова?

Воодушевен што сум повторно во Франција за да се сретнам со талентираниот тим во Марсеј.

Воодушевен што сум повторно во Франција за да се сретнам со талентираниот тим во Марсеј. - Кликнете овде!