Фацебоок ће коначно тражити дозволу пре него што употреби препознавање лица на вама

مسئلن کي ختم ڪرڻ جي لاء اسان جو اوزار آزمايو

Од вас се тражи да се одлучите - годинама након што је технологија постала део вашег искуства на друштвеним мрежама.

Генерални директор Фејсбука Марк Закерберг Јосх Еделсон/АФП/Гетти Имагес

Ова прича је део групе прича тзв Футуре Перфецт

Проналажење најбољих начина да се чини добро.

Фацебоок мења начин на који користи технологију за препознавање лица — функцију на платформи која омогућава означавање лица на фотографијама. Од сада, ако желите да та функција буде део вашег искуства на друштвеним мрежама, мораћете да изаберете да је укључите. Подразумевано ће бити искључено за све нове кориснике, као и за тренутне кориснике који не раде ништа када добију предстојеће обавештење о промени, објавио је Фејсбук у уторак. блог пост .

То је знак све веће свести компаније да треба да пројектује слику која више води рачуна о приватности - и све веће опрезности јавности према технологији препознавања лица, која може идентификовати појединца анализирајући његове црте лица на сликама, видео снимцима или у стварности време.

Фацебоок је популаризовао препознавање лица пре много година у контексту који се чинио потпуно невиним: означио је лица наших пријатеља за нас на фотографијама које смо поставили на мрежу друштвених медија. То је за многе од нас био први увод у препознавање лица и једва да смо размислили о прикладној технологији.

Премотајте унапред до 2019., а наслови су препуни људи који осуђују његове лоше последице. Технологија сада игра улогу полиција и надзор , а стручњаци за вештачку интелигенцију указују на доказе који показују да може несразмерно нанети штету обојеним људима . Бехемотске компаније као што су Аппле, Амазон и Мицрософт су заглибљене у контроверзама око технологије. Неки градови, попут Сан Франциска, Окланда и Сомервила, већ су увели локалне забране за то.

Прошлог месеца, демократски председнички кандидат сенатор Берни Сандерс позвао је на потпуну забрану коришћења софтвера за препознавање лица у полицији. Сенатор Елизабетх Ворен рекла да ће формирати радну групу да успостави заштитне ограде и одговарајућу заштиту приватности за технологију надзора, укључујући препознавање лица.

И како се технологија појављује свуда, од наших стамбених зграда до наших аеродрома, све више изазива контроверзу међу грађанима. Узмимо, на пример, црне станаре у Бруклину који приговорили су на план свог станодавца да инсталира технологију у њихову зграду која је стабилизована за најам . Или путник који се на то жалио преко Твитера ЈетБлуе ју је пријавио на лет користећи препознавање лица без њеног пристанка.

У том контексту, није ни чудо што Фацебоок чини све што може да буде (или се барем чини) разумнији у погледу употребе контроверзне технологије. Компанија је била уплетена у а серија скандала у вези са приватношћу — од којих је Цамбридге Аналитица само најочитија — и последње што јој треба је више оптужби да не схвата озбиљно приватност корисника.

У ствари, једна од недавних оптужби Федералне трговинске комисије против Фејсбука била је то компанија је обманула кориснике године тако што није правилно објаснио своју употребу препознавања лица. Поравнање од 5 милијарди долара које је Фацебоок постигао са ФТЦ-ом у јулу захтева од компаније да буде јаснија у погледу употребе те технологије.

У свом посту на блогу од уторка, у одељку под насловом Приваци Маттерс, Фацебоок је приметио: Наставили смо да сарађујемо са стручњацима за приватност, академицима, регулаторима и људима на Фацебоок-у о томе како користимо препознавање лица и опцијама које имате да га контролишете.

Како Фацебоок обавештава кориснике о избору да се одлуче за препознавање лица

Фејсбук

Компанија је то поново објаснила децембра 2017 , дао је неким корисницима нову поставку која омогућава лако укључивање или искључивање за шири скуп употреба препознавања лица, као што је помагање да заштитите свој идентитет на Фејсбуку тако што ће вас упозорити ако неко користи фотографију вашег лица као своју слику профила .

Од сада, сваки корисник — не само неки — ће добити ову поставку која ће нас подстаћи да се укључимо у све употребе технологије препознавања лица на Фејсбуку или да останемо ван ње.

Фацебоок-ово обавештење наглашава предности укључивања. Каже да доношење те одлуке значи да можемо помоћи да се заштитимо од некога ко користи вашу фотографију да се лажно представља као и да можемо да кажемо људима са оштећењем вида када сте на фотографији или видео снимку преко читача екрана. Али у мери у којој прихватање ове технологије значи даље њено нормализовање, постоје неке веома озбиљне недостатке које треба размотрити.

Шта чини технологију препознавања лица тако контроверзном?

Пре свега, не мисле сви да је технологија препознавања лица нужно проблематична. Адвоцатес кажу да софтвер може помоћи у достојним циљевима, попут проналажења нестале деце и старијих одраслих или хватања криминалаца и терориста. Председник Мајкрософта Бред Смит рекао је да ће бити сурово да потпуно престане да продаје софтвер владиним агенцијама. Овај камп жели да види технологију регулисану, али не и забрањену.

Али узмите у обзир добро документовану чињеницу да људска пристрасност може да се увуче у АИ. Често се ово манифестује као проблем са подацима о обуци који иду у АИ: ако дизајнери углавном хране системе примерима белих мушких лица и не размишљају да диверзификују своје податке, системи неће научити да правилно препознају жене и људе боје. И заиста, често смо открили да системи за препознавање лица погрешно идентификовати те групе, што би могло довести до тога да буду непропорционално држане на испитивању када агенције за спровођење закона користе технологију.

2015. Гоогле-ов систем за препознавање слика означио Афроамериканце као гориле. Три године касније, Амазонов систем препознавања погрешно упарио 28 чланова Конгреса са криминалним ударцима . Друга студија открили су да три система за препознавање лица - ИБМ, Мицрософт и кинески Мегвии - имају већу вјероватноћу да погрешно идентификују пол тамнопутих људи (посебно жена) него људи свијетле пути.

Чак и ако би сви технички проблеми били поправљени, а технологија препознавања лица потпуно де-пристрасна, да ли би то спречило софтвер да штети нашем друштву када се примени у стварном свету? Не нужно, као недавни извештај Института АИ Нов објашњава.

Рецимо да технологија постаје једнако добра у идентификацији црнаца као и у идентификацији белаца. То можда заправо није позитивна промена. С обзиром на то да је црначка заједница већ преоптерећена полицијом у САД, чињење црних лица читљивијим за ову технологију, а затим давање технологије полицији могло би само погоршати дискриминацију. Као Зое Самудзи је написала за Даили Беаст , Није друштвени напредак учинити црне људе једнако видљивим софтверу који ће неизбежно бити додатно наоружан против нас.

Воодров Хартзог и Еван Селингер, професор права, односно професор филозофије, аргументовано прошле године та технологија препознавања лица сама по себи штети нашем друштвеном ткиву. Само постојање система за препознавање лица, који су често невидљиви, штети грађанским слободама, јер ће се људи понашати другачије ако сумњају да су под надзором, написали су. Забринутост је да ће то имати застрашујући ефекат на слободу говора, окупљања и вероисповести.

Лук Старк, научник дигиталних медија који ради за Мицрософт Ресеарцх Монтреал, изнео је још један аргумент у недавном чланку под насловом Препознавање лица је плутонијум АИ. Поређење софтвера са радиоактивним елементом може изгледати претерано, али Старк инсистира да је аналогија прикладна. Плутонијум је биолошки токсичан елемент који се користи за прављење атомских бомби, и баш као што његова токсичност произилази из његове хемијске структуре, опасност од препознавања лица је неискорењиво, структурно уграђена у њега, јер придаје нумеричке вредности људском лицу. Он објашњава:

Технологије за препознавање лица и други системи за визуелно класификовање људских тела путем података су неизбежно и увек средства помоћу којих се раса, као конструисана категорија, дефинише и чини видљивом. Свођење људи на скупове читљивих знакова којима се може манипулисати је обележје расизације научних и административних техника уназад неколико стотина година.

Сама чињеница нумеричке класификације и шематизације људских црта лица је опасна, каже он, јер омогућава владама и компанијама да нас поделе на различите расе. Кратак је скок од поседовања те способности до проналажења бројчаних разлога за тумачење неких група као подређених, а затим рефиксирања те подређености коришћењем „харизме бројева“ да се тврди да је подређеност „природна“ чињеница.

Другим речима, расна категоризација пречесто потхрањује расну дискриминацију. Ово није далека хипотетичка, већ тренутна реалност: Кина већ користи препознавање лица за праћење Ујгурских муслимана на основу њиховог изгледа, у систему Нев Иорк Тимес је назвао аутоматизовани расизам. Тај систем Кини олакшава прикупљање Ујгура и затварање у логоре за интернирање.

Може изгледати чудно говорити о репресији ауторитарне владе над мањином у истом даху као и згодна функција Фацебоок-а за означавање фотографија. Али то је управо поента: иста технологија лежи у основи обоје, а ризик од некритичке нормализације једне је да се крећемо према свету у којем други постаје све присутнији.

Пријавите се за Футуре Перфецт билтен. Двапут седмично ћете добити скуп идеја и рјешења за рјешавање наших највећих изазова: побољшање јавног здравља, смањење патње људи и животиња, ублажавање катастрофалних ризика и – поједностављено речено – побољшање у чињењу добра.