Το Google Chrome εντοπίζει πλέον τυπογραφικά λάθη στις διευθύνσεις URL σας

Το Google Chrome θα ελέγχει τώρα για τυπογραφικά λάθη στις διευθύνσεις URL σας και θα εμφανίζει προτεινόμενους ιστότοπους με βάση αυτό που πιστεύει ότι εννοούσατε.

Η εταιρεία ανακοίνωσε την αλλαγή

ως μέρος μιας μεγαλύτερης ενημέρωσης προσβασιμότητας και λέει ότι η λειτουργία θα έρθει πρώτα στην επιφάνεια εργασίας πριν φτάσει σε κινητά τους «προσεχείς μήνες».

Δεν βλέπω ακόμα τη λειτουργία στο Chrome στο macOS, αλλά φαίνεται σαν ένα εύχρηστο εργαλείο για να βεβαιωθείτε ότι βρίσκεστε στους σωστούς ιστότοπους (και όχι σε αυτούς που αμφισβητείτε συχνά όταν γράφετε λάθος το όνομα ενός δημοφιλούς ιστοσελίδα).


Τώρα, όλοι οι χρήστες θα μπορούν να βλέπουν εάν μια τοποθεσία είναι προσβάσιμη από αναπηρικά αμαξίδια.


Εικόνα: Google

Επιπλέον, η Google αποκάλυψε μερικές ενημερώσεις στη λειτουργία Ζωντανών υπότιτλων που μεταγράφει όσα λέει κάποιος σε πραγματικό χρόνο. Τώρα, θα μπορείτε να πληκτρολογείτε μια απάντηση κατά τη διάρκεια μιας τηλεφωνικής κλήσης και να τη διαβάζετε δυνατά στον καλούντα σας. Ενώ αυτή η δυνατότητα έρχεται πρώτα στις «πιο πρόσφατες» συσκευές Pixel, θα φτάσει σε παλαιότερα τηλέφωνα Pixel και άλλες συσκευές Android αργότερα. Η Google λανσάρει επίσης ένα βελτιστοποιημένο πλαίσιο υπότιτλων σε tablet Android και θα προσθέσει υποστήριξη Live Caption για γαλλικά, ιταλικά και γερμανικά στα Pixel 4 και 5, καθώς και σε άλλες συσκευές Android.

Υπάρχει μια άλλη χρήσιμη ενημέρωση που έρχεται στους Χάρτες Google που κάνει το εικονίδιο του προσβάσιμο σε αναπηρικά αμαξίδια ορατό σε όλους. Αυτό δεν ίσχυε προηγουμένως, καθώς έπρεπε να επιλέξετε τη λειτουργία Προσβάσιμα μέρη των Χαρτών για να δείτε εάν ένα μέρος είχε είσοδο χωρίς βήματα.

Τέλος, η Google ανακοίνωσε μια κλειστή έκδοση beta για μερικές νέες δυνατότητες στην εφαρμογή της Lookout για χρήστες που είναι τυφλοί ή έχουν χαμηλή όραση. Η εφαρμογή με τεχνητή νοημοσύνη μπορεί πλέον να επεξεργάζεται και να δημιουργεί περιγραφές εικόνων ανεξάρτητα από το αν έχουν ή όχι εναλλακτικό κείμενο ή λεζάντες. Οι χρήστες μπορούν στη συνέχεια να κάνουν περαιτέρω ερωτήσεις σχετικά με αυτές τις εικόνες, τις οποίες η εφαρμογή θα προσπαθήσει να απαντήσει χρησιμοποιώντας ένα προηγμένο μοντέλο οπτικής γλώσσας από το Google DeepMind.


theverge.com



You might also like


Leave A Reply



Cancel Reply

Your email address will not be published.