Facebook lõpetas sisemise rakenduse, mis võimaldas töötajatel suunata oma mobiilseadmed teise inimese poole ja tuvastada nad näotuvastuse abil.
Rakendus Business Insideri andmetel sisenes 2015.
aastal arendusse ja jätkas tarkvarainseneride tähelepanu pälvimist 2016.
aastani.
Sellest ajast alates on see siiski pimedas.
Facebook kinnitas oma testimist, kuid ei pakkunud täpset põhjust, miks seda tehnoloogiat avalikus funktsioonis ei avaldatud.
Võib-olla see ei toiminud ootuspäraselt või võib-olla põhjustas katkestamise kasutajate privaatsusprobleemid.
Kasutades sisseehitatud kaamerat mobiilseadmes, skanniks Facebook inimese nägu.
Seejärel kuvaks rakendus nime ja profiili vastavalt sellele, keda ta nägi.
Kahjuks ei väidetud aruandes, kui täpne oli Facebooki tehnoloogia arendamise ajal.
"Uute tehnoloogiate tundmaõppimiseks loovad meie meeskonnad regulaarselt rakendusi, mida sisemiselt kasutada," ütles Facebooki pressiesindaja CNET-ile.
"Siin kirjeldatud rakendus oli saadaval ainult Facebooki töötajatele ja see tundis ära ainult töötajad ja nende sõbrad, kellel oli näotuvastus lubatud."
Näotuvastus on tänapäeval osa Facebookist.
Kasutajad, kes valivad, saab fotodel ja videotes automaatselt tuvastada.
Facebook analüüsib sisu ja püüab välja selgitada, kes ilmub, mida sõbrad kasutavad teiste hõlpsaks sildistamiseks, mitte nimede käsitsi välja trükkimiseks.
Selle funktsiooni saab igal ajal välja lülitada ja Facebook kustutab teie näo „malli”.
Soovitasid meie toimetajad
Eelmisel aastal tutvustatud nutika kuvaliini Facebook portaal saab nägusid jälgida, kuid ei tunne neid ära.
Varasemad aruanded näitavad, et ettevõte uuris Portaali seadmetes täieõiguslikku näotuvastust.
On väga tõenäoline, et privaatsusprobleemid ajendasid Facebooki otsust sisemine rakendus eraldada.
Tarbijad ja seadusandjad ei tunne, et suhtlusvõrgustik käitleb kasutajaandmeid nõuetekohaselt ning eelmisel aastal sattus Facebook Cambridge Analytica skandaali keskmesse.
Facebook lubas privaatsust taastada selle aasta alguses, kuid muudatuste märkamine võtab aega.