Το Pixel Tablet μπορεί να λάβει Look and Talk από το Nest Hub Max

Με το

Tablet να είναι μόλις μερικών μηνών, η

ενδέχεται να προσθέσει σύντομα δύο λειτουργίες που έκαναν το ντεμπούτο τους στο Nest Hub Max: Look and Talk και Quick Gestures.




Σχετικά με το APK Insight:

Σε αυτήν την ανάρτηση “APK Insight”, απομεταγλωττίσαμε την πιο πρόσφατη έκδοση μιας εφαρμογής που ανέβασε η Google στο Play Store. Όταν απομεταγλωττίζουμε αυτά τα αρχεία (που ονομάζονται APK, στην περίπτωση των εφαρμογών Android), μπορούμε να δούμε διάφορες γραμμές κώδικα σε αυτήν την υπόδειξη για πιθανές μελλοντικές λειτουργίες. Λάβετε υπόψη ότι η Google μπορεί να στείλει ή να μην στείλει ποτέ αυτές τις λειτουργίες και η ερμηνεία μας για το τι είναι μπορεί να είναι ατελής. Ωστόσο, θα προσπαθήσουμε να επιτρέψουμε σε εκείνα που είναι πιο κοντά στην ολοκλήρωση, για να σας δείξουμε πώς θα φαίνονται σε περίπτωση που αποσταλεί. Έχοντας αυτό κατά νου, διαβάστε παρακάτω.


Το tablet Pixel εισέρχεται σε λειτουργία Hub όταν τοποθετείται στη βάση του ηχείου φόρτισης (ή συνδέεται σε καλώδιο USB-C). Η εφαρμογή Google 14.43 αποκαλύπτει

για το “Look and Talk” για τη λειτουργία Hub.

Όταν το tablet σας βρίσκεται σε λειτουργία Hub, οποιοσδήποτε στο σπίτι σας, συμπεριλαμβανομένων των παιδιών, μπορεί να το κοιτάξει από απόσταση έως και 5 πόδια για να μιλήσει στον Βοηθό χωρίς να χρειάζεται να πουν [Hey Google]

  • “Η συσκευή σας βασίζεται στην ανίχνευση της κάμερας και αναλύει βίντεο με εσάς ή άλλους στο σπίτι σας για να προσδιορίσει εάν κάποιος θέλει να ενεργοποιήσει το Assistant.”
  • “Ο Βοηθός μπορεί να ενεργοποιηθεί όταν εσείς ή άλλοι δεν το είχατε σκοπό, εάν εντοπίσει εσφαλμένα ότι κάποιος θέλει τη βοήθειά του.”
  • “Το βίντεό σας υποβάλλεται σε επεξεργασία στη συσκευή και δεν αποστέλλεται στους διακομιστές της Google.”
  • “Μπορείτε να απενεργοποιήσετε αυτήν τη δυνατότητα ανά πάσα στιγμή στις ρυθμίσεις Hub Mode.”

Παρουσιάστηκε στο I/O 2022, το Look and Talk αναγνωρίζει πότε κοιτάτε απευθείας στο Nest Hub Max και θα αρχίσει να ακούει μια εντολή χωρίς να χρειάζεται να πείτε “Hey Google”. Η Google αξιοποιεί έξι μοντέλα ML στη συσκευή για την επεξεργασία 100+ σημάτων από την κάμερα και το μικρόφωνο, όπως η εγγύτητα, ο προσανατολισμός του κεφαλιού, η κατεύθυνση του βλέμματος, η κίνηση των χειλιών, η επίγνωση του περιβάλλοντος και η ταξινόμηση της πρόθεσης. Ο Βοηθός Google δεν θα ενεργοποιηθεί όταν κοιτάτε απλώς την Έξυπνη οθόνη.

Στο Pixel Tablet, το εύρος Look and Talk παραμένει σε απόσταση πέντε ποδιών από την μπροστινή κάμερα 8 MP με οπτικό πεδίο 84°. Η Google εξισώνει την αλληλεπίδραση χωρίς λέξεις-κλειδιά με την οπτική επαφή με ένα άτομο στην πραγματική ζωή πριν μιλήσει.

Εν τω μεταξύ, το Pixel Tablet μπορεί επίσης να λάβει Γρήγορες χειρονομίες. Το Nest Hub Max σάς επιτρέπει ήδη να κρατάτε την παλάμη σας προς την κάμερα για παύση των πολυμέσων.

Μπορείτε να λάβετε αναλυτικές πληροφορίες σχετικές με εσάς, να χρησιμοποιήσετε Γρήγορες χειρονομίες για να ελέγξετε τη

και να επιτρέψετε σε οποιονδήποτε στο σπίτι σας να κοιτάξει και να παραλείψει [“Hey Google”]

Αυτά τα δύο χαρακτηριστικά θα αποτελέσουν την πρώτη σημαντική

στη λειτουργία Hub του Pixel Tablet.


Χάρη σε

JEB Decompiler

από το οποίο επωφελούνται ορισμένα Teardown του APK Insight.


VIA:

9to5google.com


Leave A Reply



Cancel Reply

Your email address will not be published.