Ahhoz képest, hogy a munkaidőm nagy részét a Final Cut előtt töltöm, viszonylag ritkán írok róla, pedig elég sokan kéritek emailben, hogy ha tudok valami trükköt, akkor okvetlenül osszam meg veletek.
Sőt, olyan volt már, hogy egész videósorozatot kértetek, amiben lépésről-lépésre bemutatom, hogyan működik a vágóprogram, de erre nem vállalkoznék, egyrészt mert ez egy 160 órás videó lenne, másrészt meg ott van a Youtube, ahol minden problémára kapsz valamilyen frappáns, gyors megoldást.
Amiről viszont eddig kevés beszámoló volt, az a TracX nevű mozgáskövető plugin, pedig de jó is ez már.
Mozgáskövetésre ugye azért van szükség, mert előfordul, hogy egy szöveget, képet, akármit valamilyen tereptárgyhoz akarsz kötni a képben, ezáltal az utólag berakott elem olyanná válik, mintha a táj szerves része lenne.
Az egyik első jó példa erre a Zombieland főcíme volt, kizárólag 18 éven felülieknek ajánlott:
A legjobb szoftver az ilyen feladatok elvégzésére az After Effects, ezzel viszont több gond is van: külön meg kell venni, masszívan drága, ráadásul nvidiás kártyákra optimalizálták, a mostanában kizárólag AMD-vel dolgozó Macintoshon tehát kínszenvedés tud lenni vele a munka.
Ott lenne persze megoldásnak a Final Cut Pro X, de az egy vágóprogram, sosem tudott ilyesmit, a vele szimbiózisban élő Motion viszont igen. Abban van egy közepesen jó mozgáskövető, és régen elég jól lehetett használni is, mert az FCPX alatt használt videórészletet egyetlen kattintással át lehetett oda varázsolni: elvégezted a mozgáskövetést, aztán visszaküldted a részt a vágóprogramba.
Az egyik frissítéssel azonban megszűnt az átjárás a két program között (világ faszsága), azóta exportálod a videót FCPX-ből, importálod Motionbe, elvégzed a munkát, majd megint exportálsz és importálsz, csak visszafele. Nevetséges.
Na és ilyenkor jön jól a Coremelt pluginja, a TracX, amit simán feltelepíthetsz FCPX alá, és onnantól kezdve a vágóprogramon belül tudsz dolgozni. Simán fogod a kiválasztott videórészletet, ráküldöd a plugint, az elvégzi a mozgásanalízist és már csatolhatod is a szövegeket, képeket, akármit.
Én például ezt használtam az Úton videókban, amikor a Vodafone-logót ragasztottam a nyertes fejéhez:
Vagy mondjuk az Úton csatornabemutatójánál, a 15. másodperctől, amikor a kezemhez kötöttem Indiát és Lisszabont:
A program előnye, hogy normál körülmények közt nagyon-nagyon okos és pont ennyire egyszerű kezelni is. Csak kijelölöd, hogy melyik objektumot kövesse a plugin, elindítod a processzt és videóhossztól függően egyből, vagy nagyon gyorsan meg is van a végeredmény. Fél percnyi videót kábé egy perc alatt le is számol, ami iszonyú jó teljesítménynek számít és ezután már csak csatolni kell a megfelelő képet, szöveget, kész is van, amit akartál.
Gond csak akkor van, ha eltérsz a szabványos helyzetektől. Egy sima videórészlettel például elég könnyen megküzd, de ha több sávból álló multicam fájl van alatta, akkor bejelenti, hogy azt nem tudja olvasni, ami viszont tud néha idegesítő lenni (főleg, ha hozzám hasonlóan multicam fájlokkal dolgozol). Aztán amíg tudja követni a képet, minden oké, de ha valahol eltéved, nagyon körülményes a javítás. Tegyük hozzá, hogy a legtöbb tracking programnál ilyesmire nincs lehetőség, a Coremelt szoftvere ebben mindenképp jobb sok konkurensnél, de elég ritkán sikerült úgy elvégeznem egy javítást, ahogy szerettem volna.
És a felszínkövetéssel is volt gondom, például hiába szerettem volna ilyen felülnézeti képet csinálni:
Egyszer sem jött össze. Persze elmélyedni sem tudtam a program minden részletében, mert megálltam kábé ott, ahol nekem elég volt, és ahhoz bőven elég a TracX, sőt, jelenleg ez tűnik a legjobb megoldásnak mind közül. Szóval ha hasonló programot kerestetek, tegyetek vele egy próbát, van ingyenes időszak, meg minden!
Méghozzá a kétkamerás, jet black Plus modellt, a legmenőbbet, amit az Apple valaha gyártott. De képes ez megszorongatni a konkurenciát? És milyen iPhone-ról érdemes váltani rá?
Az iPhone 7-est megnézheted, megfoghatod és meg is vásárolhatod az iCentre három budapesti üzletében, a Momban, az Arénában és az Alléban és megvásárolhatod a webshopban.
A PhoneBuff rendszeresen elvégzi tesztjét, amiben fogja a Samsung és az Apple aktuális csúcstelefonját, aztán egy friss reboot után elindít mindkettőn egy rakás alkalmazást, majd ezt követően újra végigfuttatja ugyanezt a sort. Az első kör sokat mutat a processzorteljesítményből és a háttértár sebességéből, a második meg leginkább arra világít rá, hogy milyen az eszköz memóriakezelése, hiszen akkor már jó esetben ramból rántja elő a kódot a cucc.
A 6S Plus vs S7 EDGE tesztet annak idején a 6S nyerte fölényesen, az első körrel majdnem húsz, a másodikkal majdnem negyven százalékkal gyorsabban végzett a kevesebb memória ellenére:
És mit mutat a legújabb verseny, amiben a 7-est hasonlítják össze a Galaxy Note 7-essel?
MÉGSOKKALBRUTÁLISABB előnyt:
De tényleg, a két mobil nem egy ligában játszik, az első körben negyven százalékot ver az iPhone a Samsungra, a két kört együtt feleannyi idő alatt nyomja le és ha csak a második körre koncentrálunk, azt látjuk, hogy a Samsungnak 70 másodperc kellett arra, amire az iPhone-nak 25!
Mindezt úgy, hogy az iPhone-ban feleannyi memória van, mint a Galaxy Note 7-ben.
Ja, és mielőtt bárki előjönne azzal, hogy a Galaxy Note-nak mennyivel több pixelt kell kiszámolnia a nagyobb felbontású kijelző miatt:
- a Samsungot senki sem kényszerítette, hogy annyi pixelt zsúfoljon a mobilba, amit csak VR szemüveggel lehet kihasználni, ami viszont a felhasználók elhanyagolható részének van
- Kipróbálták azt is, hogy gyorsul-e a mobil, ha leveszik a képernyő felbontását, és baromira nem:
Ennyit a teljesen értelmetlen és öncélú specifikációháborúról, amikor bárki azzal érvel az iPhone ellen, hogy annak gyengébb a hardvere. Az ember nem hardvert vesz, hanem telefont és csak egy kérdés számít: hogyan viselkedik a készülék, mint egység.
És a PhoneBuff tesztje szerint az iPhone sokkal jobban egyben van, mint a legkeményebb konkurensek.
Azért titkos, mert bár benne van a készülékben, még sincs benne.
Talányos, mi?
Szóval a Plus előnye a hagyományos verzióhoz képest a másfélszeres memóriaméreten és a nagyobb kijelzőn túl ugye a dupla kamera, ami egyelőre nem sokat csinál. Lényegében tudsz 2x-es optikai zoomot használni, ami persze előny, de nem nagy, kétszeres zoommal nem lehet megváltani a világot és ezért kár is volt annyit dolgozni az optikákkal.
A mobil azonban a fentieken túl elvileg képes a mélység élességgel is játszani, tudjátok, ez az a jelenség, amikor lefotózol egy jó fényképezővel valakit közelről és a háttér elmosottá válik.
Ennek illusztrálására kérjük meg Emilyt.
Emily drága!
Köszönjük!
Na szóval: ezt elvileg a 7 Plus is tudja, gyakorlatilag viszont nem, mert nem futott be hozzá iOS-oldalról a funkció, nem sikerült elkészülni vele.
A következő update-ben viszont már benne lesz. Ezt onnan lehet tudni, hogy már a bétában is benne van és a MacRumors stábja jól ki is próbálta a funkciót.
A tapasztalatok:
- a portré módon nagyon könnyű előhozni, egyszerűen egy újabb ablak jelent meg a videó-fotó-négyzet-tengelyen
- az egészet real time-ban látod, nemcsak egy utólagos effektről van szó
- nagyon szépen mossa a hátteret a képen, tényleg látod a játékot a mélység-élességgel
- nemcsak személyekkel, de tárgyakkal is működik (én sem értem, ezt minek kellett kihangsúlyozni, főleg hogy a daloló mexikói az nem tárgy, mi?)
- a képre ráközelítve azért látszik a csalás, nagyon erős blur van az éles tárgyak körül, miközben egy tükörreflexes gépnél nem vesznek el a téma részletei, például a kamerához közelálló macska szőrszálai
Ezzel együtt ez egy elég jópofa funkció, távolról nézve tényleg döbbenetesen jól mutató képeket tudunk készíteni, valójában kamerafronton ez jelenti az egyik legnagyobb előrelépést az iPhone-nál évek óta. Mondjuk a konkurensek egy lencsével is tudnak ilyesmit, igaz, az nem realtime és több képet is kell egymás után készíteni, szóval az előrelépés érzékelhető.
Persze az ilyen kalkulációknak a bicskanyitogatáson kívül nincs semmi értelmük, mármint nem azért, mert úgyis tehetetlenek vagyunk, hanem mert tényleg hülyeség egy termék árába kizárólag az összetevők költségeit beleszámolni. Persze közben mégiscsak egy jópofa játék ez a számokkal. Hülye, de jópofa.
Szóval az IHS Markit kimatekozta, hogy a 32 gigabájtos iPhone 7-es gyártása kábé 220 dollárjába, hatvanezer forintjába kerül az Apple-nek, miközben ezek a szemét kapitalisták 255 ezerért adják a mobilt.
Ezzel együtt is jó tízezer forinttal nőtt a gyártási költség a 6s-hez képest.
Továbbra is a kijelző a legdrágább 43 dolcsival, majd jönnek a modem és egyéb mobilcsipek 34 dolcsival, az A10-es kábé 27 dollárba, a nagyobb akksi 2,5 dollárba kerül. A két kamera bekerülési költsége 20 dollár, a 2 giga memória és a 32 giga háttértár 16 dollár, a többi alkatrésznek meg nincs külön-külön értelmezhető ára.
A fenti összegben persze továbbra sincsenek benne olyan jelentéktelen tételek, mint a szállítás, a szoftver, a kutatásfejlesztés, szóval persze, az A10-et legyártani nem kerül sokba, de mondjuk a fejlesztésre nyilván elmentek százmilliók, az egész telefonra meg milliárdok. Dollárban.
A blogon található valamennyi írás, valamint a fényképek egy része a szerző saját tulajdonát képezik, amelyek másolása, terjesztése kizárólag előzetes engedéllyel lehetséges.