7.1 C
Thessaloniki
Δευτέρα, 23 Δεκεμβρίου, 2024

Η Google θα σταματήσει να απαντάει σε ανόητες ερωτήσεις

Η Google θα σταματήσει να δίνει γρήγορες απαντήσεις σε ανόητες ερωτήσεις, ανακοίνωσε η εταιρεία, καθώς επιδιώκει να βελτιώσει την υπηρεσία «featured snippets» της μηχανής αναζήτησης.

Πώς αποφάσισε αυτή την αλλαγή η Google

Αυτό σημαίνει ότι οι χρήστες θα πρέπει να βλέπουν λιγότερες απαντήσεις σε ερωτήσεις όπως «Πότε ο Σνούπι δολοφόνησε τον Αβραάμ Λίνκολν;», στις οποίες η υπηρεσία απαντούσε κάποτε χαρούμενα με το «1865» – τη σωστή ημερομηνία, αλλά πολύ λάθος δολοφόνο.

Ασφάλεια αυτοκινήτου με εγγύηση χαμηλότερης τιμής! Εως και 40% φθηνότερα!
σύγκριση ανάμεσα σε 27 ασφαλιστικές εταιρίες

«Είναι σαφές ότι αυτός δεν είναι ο πιο χρήσιμος τρόπος εμφάνισης αυτού του αποτελέσματος», δήλωσε ο επικεφαλής αναζήτησης της εταιρείας, Pandu Nayak, σε μια ανάρτηση που ανακοίνωσε τις αλλαγές. «Έχουμε εκπαιδεύσει τα συστήματά μας ώστε να γίνονται καλύτερα στον εντοπισμό τέτοιου είδους ψευδών προϋποθέσεων, οι οποίες δεν είναι πολύ συχνές, αλλά υπάρχουν περιπτώσεις όπου δεν είναι χρήσιμο να εμφανίζεται ένα προτεινόμενο απόσπασμα. Έχουμε μειώσει την ενεργοποίηση των featured snippets σε αυτές τις περιπτώσεις κατά 40% με αυτή την ενημέρωση».

Τα Snippets, τα οποία μερικές φορές εμφανίζονται ως προτεινόμενη απάντηση σε άμεσες ερωτήσεις που υποβάλλονται στην αναζήτηση Google, αποτελούν εδώ και καιρό ακρογωνιαίο λίθο της στρατηγικής AI της εταιρείας. Η ίδια τεχνολογία τροφοδοτεί τα έξυπνα ηχεία και τους φωνητικούς βοηθούς της και επιτρέπει στη μηχανή αναζήτησης να ικανοποιεί ερωτήματα αναζήτησης χωρίς οι επισκέπτες να κάνουν κλικ σε άλλους ιστότοπους.

Αλλά τα αποσπάσματα, τα οποία παράγονται αυτόματα από τα περιεχόμενα των ιστότοπων, αποτελούν επίσης ένα αγκάθι για την Google εδώ και εξίσου πολύ καιρό. Το 2017, η εταιρεία κατηγορήθηκε για διάδοση «ψευδών ειδήσεων», αφού ένα featured snippet για το ερώτημα «Σχεδιάζει ο Ομπάμα πραξικόπημα;», είχε ως αποτέλεσμα η φωνητική βοηθός της να λέει χαρούμενα στους χρήστες: «Ο Ομπάμα μπορεί στην πραγματικότητα να σχεδιάζει ένα κομμουνιστικό πραξικόπημα στο τέλος της θητείας του το 2016», αφού βρήκε την πληροφορία σε έναν ιστότοπο συνωμοσίας.

Άλλα λάθη ήταν πιο κωμικά. Η εταιρεία θα έλεγε με θάρρος στους χρήστες ότι οι σκάλες εφευρέθηκαν το 1946 – αφού διάβασε έναν ιστότοπο που απέδιδε έναν συγκεκριμένο κανονισμό ασφαλείας των ΗΠΑ σε εκείνη την ημερομηνία – ή θα επαναλάμβανε εν αγνοία της ένα αστείο των Monty Python όταν ρωτήθηκε: «Γιατί τα πυροσβεστικά οχήματα είναι κόκκινα»

Σε μια προσπάθεια να αντιμετωπίσει τη βασική αιτία τέτοιων λαθών, η Google κυκλοφορεί επίσης νέες προειδοποιήσεις για τις περιπτώσεις που ένας όρος αναζήτησης έχει πέσει σε «κενό δεδομένων» – μια ερώτηση στην οποία μπορεί απλώς να μην υπάρχει καλή απάντηση, σύμφωνα με την εφημερίδα Guardian.

«Φαίνεται ότι δεν υπάρχουν πολλά καλά αποτελέσματα για αυτή την αναζήτηση», προειδοποιεί πλέον ο ιστότοπος τους χρήστες που πέφτουν σε ένα τέτοιο ερώτημα.

«Αυτό δεν σημαίνει ότι δεν υπάρχουν χρήσιμες πληροφορίες ή ότι ένα συγκεκριμένο αποτέλεσμα είναι χαμηλής ποιότητας», λέει ο Nayak. «Αυτές οι ειδοποιήσεις παρέχουν πλαίσιο σχετικά με το σύνολο των αποτελεσμάτων στη σελίδα και μπορείτε πάντα να βλέπετε τα αποτελέσματα για το ερώτημά σας, ακόμη και όταν υπάρχει η συμβουλευτική».

Πρόσφατα

Σχετικά άρθρα