Google Clips på $ 249 är inte ett actionkamera.
Det är inte heller en livsloggskamera.
Det är något konstigare, en utställning för Googles AI-teknik som ska fungera som en konstgjort intelligent assistent som vet när man ska ta intressanta ögonblicksbilder.
Tanken bakom den här lilla kameran är att den vid familjeevenemang befriar dig från att behöva rama in foton och frigör dig att njuta av dagen medan den bestämmer vilka bilder du ska ta.
Det är en intressant idé, men i praktiken tar Clips otroliga, dåligt inramade videor och slutar smyga ut alla i rummet.
Jag är ganska starkt investerad i Googles produkter.
Jag har två G Suite-konton, en Android-telefon, ett Google Home, en prenumeration på Google Play Musik och hundratals spelningar med foton i Google Foto.
Jag använde klipp i en vecka när jag tog min dotter till kaffe, besökte min nya systerdotter och på en seriekonferens.
Det här är alla tider som jag vill minnas, men också tider när det är roligare att vara just nu än att sitta fast bakom en lins.
Så konceptet med Google Clips, helt skilt från produkten, är vettigt.
Problemet ligger i utförandet.
Söt, men läskig
Google Clips är söt.
Det är en 2-tums fyrkantig, 0,8-tums djup kamera som väger 2,1 ounces och passar i ett litet gummiigt lock som har ett klämma på sig, alltså namnet.
På framsidan finns en utskjutande objektiv med fast fokus som också fungerar som på / av-omkopplare-du vrider linsen-och en avtryckare om du vill tvinga den att ta ett klipp snarare än att vänta på AI.
Tre lysdioder berättar när kameran är på, fungerar bra eller har lite lagringsutrymme.
Peel Clips ur höljet och det finns en USB-C-port på botten för laddning.
Enheten är inte vattentät eller robust, men fodralet gör det lite hoppande.
Du kan fästa klipp på saker eller stå upp i det lilla fodralet.
Jag upptäckte att eftersom det i grund och botten alltid behöver sitta på ett bord så är dess skjutvinkel fel.
På en middag eller ett soffbord tas videoklipp alltid från en för låg vinkel för att vara smickrande för ansikten.
ditto för att sätta kameran på golvet när jag lekte med en bebis.
Jag försökte sätta den på andra möbler, men blev vanligtvis för hög i vinkel, med massor av huvuden och tak.
Du kan inte kontrollera vinkeln som kameran är placerad i med fodralet.
Fallets bas är inte särskilt bred eller robust, och kameran föll flera gånger i min testning.
Kameran behöver ett fodral som håller fast vid en vägg eller ett med en lutande aspekt.
Nästan alla som jag försökte klipp med smög sig ut av det.
Min dotter tyckte inte om det.
Min svägerska tyckte inte om det heller.
Efter ett tag insåg jag att den läskiga faktorn inte är att den alltid tittar: Det är att du inte vet när den tittar.
Osäkerheten är problemet.
Med en kamera på i ditt rum hela tiden-säg en hemkamera-antingen utför du det eller ignorerar det.
Psykologiskt fattar du ett beslut, en gång, om det.
Men det finns något oroande över osäkerheten i klipp: spelar det in? Är det inte? Det håller alla på språng.
Klipp bryter inte människors integritet på det sätt som du normalt brukar göra av Google.
Det skickar inte bilder automatiskt till internet-du måste bekräfta och överföra varje klipp för att sätta det online.
AI-ansiktsigenkänningsalgoritmerna finns kvar i kameran.
Klippdata läggs inte till i Googles profil om dig om du inte laddar upp dina klipp till Google Foto.
Men ändå gjorde allvar och osäkerhet alla i vårt rum oroliga.
Google säger att Clips laddar ner data från ditt Google Photos-bibliotek för att identifiera vilka personer som är viktigast för dig.
För vad det är värt såg jag inte att det påverkade de klipp som kameran spelade in.
Prestanda
Clips har en 12-megapixelsensor och en 130-graders fish-eye-lins.
Det tar bara tysta 7 sekunders videor med 15 bilder per sekund.
Videoklippen verkar ha samma storlek när de visas i Google Foto, men när jag laddade ner dem till min dator såg jag att de alla var lite olika: 1.920-av-1.410, 1.920-av-1.250, 1.920-av-1.218, 1.520 -by-972, 1 472-by-962 och 1 440-by-962 filer alla uppträdde.
Det är till och med alla lite olika bildförhållanden!
Du kan växla mellan hög och låg kvalitet och få kameran att knäppa videor på tre frekvensnivåer.
Högkvalitativa klipp är mestadels i intervallet 2 till 3 MB och klipp av låg kvalitet är 1 till 2 MB.
Klipp av låg kvalitet ser mindre definierade ut, men bibehåller samma bildhastighet.
Med förmågan att lagra cirka 5 000 klipp i kamerans 16 GB minne, men bara 2,5 till 3 timmars batteritid (mindre än en rolig eftermiddag med barnet), finns det ingen anledning att inte använda högkvalitativa högfrekventa inställningar: Du måste stanna och ladda väl innan du fyller på kameran.
När kameran samlar klipp kan du tummen igenom dem i appen Clips på din telefon.
Appen är också det enda sättet att ta bort klipp från kameran, så du behöver det.
Den stöder Pixel-familjen, Galaxy S7 eller senare, eller iPhone 6 eller senare enheter.
Det finns inget sätt att ställa in eller ansluta till klipp från en dator eller surfplatta.
Appen facklade mitt Galaxy S8s batteri till cirka en procent per minut, så jag försökte inte använda den för mycket.
Du kan spara varje klipp en gång, som ett "rörligt foto", en mycket stor (12 till 15 MB) GIF, en video eller kasta ut den.
Du kan också spara enskilda bilder från videorna som stillbilder.
[embed]https://www.youtube.com/watch?v=o54eI6lv6XM[/embed]
Alla dessa klipp ser inte särskilt bra ut.
De är ryckiga med 15 bilder per sekund (du behöver minst 24 bilder per sekund för video som ser smidig ut för moderna ögon), med uttvättade ljusa områden och lite skuggdetaljer.
Mer än så är dock videoklippen djupt osmickliga.
Fish-eye är en stor del av detta: människor nära ramkanterna verkar uppblåsta och förvrängda, och eftersom du inte frivilligt ramar in dina foton kommer du troligtvis att få klipp där saker du vill se är vid ramens kanter.
Kamerans AI är utformad för att fokusera på mänskliga ansikten och ta klipp när den ser ett ansikte i ramen.
För det mesta fungerar det här.
När jag var på serietidningen kom till exempel de flesta av mina klipp när jag stod vid bord och pratade med människor, med folket i ram.
Klipp hanterar det binära valet mellan noll personer i ram och en person i ram, ganska bra.
[embed]https://www.youtube.com/watch?v=YL7QFhXQJEU[/embed]
På en fest med vissa människor som alltid är potentiellt i ram, var dock många av kamerans val avstängda.
Jag har ett klipp där min svägerska bär barnet genom ramen så att barnets huvud klipps av; en av mina hand justerar kameran; en där min mammas rygg blockerar en bra del av ramen; och många där det finns älskade familjemedlemmar som är hemskt förvrängda av fiskögans utsikten vid ramens kanter.
Det finns människor i alla dessa klipp, men utöver det är kompositionen helt enkelt dålig.
Det är kamerans största problem.
Slutsatser
Ta dina egna bilder.
Jag förstår attraktionen hos en AI-fotograf som befriar dig från att behöva välja och rama in bilder när du leker med en ny bebis eller öppnar födelsedagspresenter, men Google Clips är inte den fotografen.
Det tar konstiga, ryckiga, konstigt formade, fish-eye-videor i ett oväntat schema som håller dig på kanten.
Det är ett uppenbart fall av ett mycket rikt företag som lägger ut en experimentell produkt som det förmodligen vet, i denna iteration, är inte särskilt bra.
Google kommer att använda Clips erfarenhet för att förfina sin AI för att känna igen scener och människor, så det är inte slöseri med dem.
När det gäller dig använder du din smartphone eller digitalkamera, ramar in ditt skott, delar det och njut av det.