Όταν γράφετε ή ξαναγράφετε άρθρα της Αγγλικής Wikipedia. Η πλατφόρμα λέει ότι κατέληξε σε αυτήν την απόφαση επειδή η χρήση τεχνητής νοημοσύνης για τη δημιουργία αντιγράφων «συχνά παραβιάζει αρκετές από τις βασικές πολιτικές περιεχομένου της Wikipedia».
Υπάρχουν κάποιες μικρές εξαιρέσεις. Οι συντάκτες μπορούν να χρησιμοποιήσουν το Large Language Model (LLM) για να βελτιώσουν τη δική τους γραφή, αλλά μόνο εάν το αντίγραφο έχει ελεγχθεί ως προς την ακρίβεια. Η πολιτική αναφέρει ότι αυτό συμβαίνει επειδή τα LLM “μπορούν να υπερβούν αυτό που θέλετε και να αλλάξουν το νόημα του κειμένου με τέτοιο τρόπο ώστε να μην υποστηρίζεται από την πηγή που αναφέρεται.”
Οι συντάκτες μπορούν επίσης να χρησιμοποιήσουν το LLM για να βοηθήσουν στη μετάφραση της γλώσσας. Ωστόσο, πρέπει να είναι αρκετά άπταιστα και στις δύο γλώσσες για να καταλάβουν λάθη. Και πάλι, τα δεδομένα πρέπει να ελεγχθούν για σφάλματα.
“Η πραγματική ελπίδα μου είναι ότι αυτό μπορεί να προκαλέσει μια μεγαλύτερη αλλαγή. Δείτε το να εξελίσσεται σε ένα κίνημα βάσης χρηστών για να ενδυναμώσουν τις κοινότητες σε άλλες πλατφόρμες και να αποφασίσετε εάν και σε ποιο βαθμό η τεχνητή νοημοσύνη θα πρέπει να είναι ευπρόσδεκτη στις κοινότητές τους”, διαχειριστής της Wikipedia. Ο διαχειριστής χαρακτήρισε επίσης την πολιτική “απώθηση και αναγκαστική ώθηση κατά της τεχνητής νοημοσύνης από τόσους πολλούς οργανισμούς τα τελευταία χρόνια”.
Ένα πράγμα που πρέπει να σημειωθεί. Η Βικιπαίδεια δεν είναι μονόλιθος. Κάθε ιστότοπος της Wikipedia έχει τους δικούς του ξεχωριστούς κανόνες και ομάδα επεξεργασίας. Κάποιοι μπορεί να αποφασίσουν να πάρουν ένα LL.M. Ωστόσο, άλλοι μπορεί να προχωρήσουν περισσότερο. Η ισπανική Wikipedia, για παράδειγμα, έχει απαγορεύσει εντελώς τη χρήση του llm.
Επίσης, ο προσδιορισμός του κειμένου που γράφτηκε από LLM δεν είναι ακριβής επιστήμη, επομένως οι ανθρώπινοι συντονιστές της Wikipedia μπορεί περιστασιακά να χάνουν κάποια σημεία slop. Αυτό είναι πιο πιθανό σε σελίδες με λιγότερο συχνή εποπτεία.
Σύνδεσμος πηγής: www.engadget.com
