flex-height
text-black

Τι είναι η μεροληψία AI;

Η μεροληψία της τεχνητής νοημοσύνης, ή μεροληψία τεχνητής νοημοσύνης, αναφέρεται σε συστηματική διάκριση ενσωματωμένη στα συστήματα τεχνητής νοημοσύνης που μπορεί να ενισχύσει τις υπάρχουσες προκαταλήψεις και να ενισχύσει τις διακρίσεις, τις προκαταλήψεις και τα στερεότυπα.

Παραμύθια στην Τεχνητή Νοημοσύνη

Το bias στα μοντέλα AI προκύπτει τυπικά από δύο πηγές: το σχεδιασμό των ίδιων των μοντέλων και τα δεδομένα εκπαίδευσης που χρησιμοποιούν.

Τα μοντέλα μπορεί μερικές φορές να αντικατοπτρίζουν τις υποθέσεις των προγραμματιστών που τα κωδικοποιούν, γεγονός που τα κάνει να ευνοούν ορισμένα αποτελέσματα.

Επιπλέον, η μεροληψία τεχνητής νοημοσύνης μπορεί να αναπτυχθεί λόγω των δεδομένων που χρησιμοποιούνται για την εκπαίδευση της τεχνητής νοημοσύνης. Τα μοντέλα AI λειτουργούν αναλύοντας μεγάλα σύνολα δεδομένων εκπαίδευσης σε μια διαδικασία γνωστή ως μηχανική μάθηση. Αυτά τα μοντέλα εντοπίζουν πρότυπα και συσχετίσεις μέσα σε αυτά τα δεδομένα για να κάνουν προβλέψεις και αποφάσεις.

Όταν οι αλγόριθμοι τεχνητής νοημοσύνης ανιχνεύουν πρότυπα ιστορικών μεροληψιών ή συστημικών ανισοτήτων ενσωματωμένων στα δεδομένα στα οποία εκπαιδεύονται, τα συμπεράσματά τους μπορούν επίσης να αντικατοπτρίζουν αυτές τις προκαταλήψεις και τις ανισότητες. Και επειδή τα εργαλεία μηχανικής μάθησης επεξεργάζονται δεδομένα σε μαζική κλίμακα, ακόμη και μικρές προκαταλήψεις στα αρχικά δεδομένα εκπαίδευσης μπορούν να οδηγήσουν σε ευρέως διαδεδομένα αποτελέσματα που εισάγουν διακρίσεις.

Σε αυτό το άρθρο, θα βουτήξουμε βαθιά στο από πού προέρχεται η προκατάληψη της τεχνητής νοημοσύνης, πώς εκδηλώνεται η μεροληψία στον πραγματικό κόσμο και γιατί η αντιμετώπιση της προκατάληψης της τεχνητής νοημοσύνης είναι τόσο κρίσιμη.

Σημασία της αντιμετώπισης της προκατάληψης της τεχνητής νοημοσύνης

Η βιολογία είναι εγγενής σε όλους τους ανθρώπους. Είναι το παραπροϊόν της περιορισμένης προοπτικής του κόσμου και της τάσης να γενικεύουμε τις πληροφορίες για να βελτιστοποιήσουμε τη μάθηση. Δεοντολογικά ζητήματα, ωστόσο, προκύπτουν όταν οι προκαταλήψεις προκαλούν βλάβη στους άλλους.

Τα εργαλεία τεχνητής νοημοσύνης που επηρεάζονται από τις ανθρώπινες προκαταλήψεις μπορούν να ενισχύσουν αυτή τη βλάβη σε συστηματικό επίπεδο, ειδικά καθώς ενσωματώνονται στους οργανισμούς και τα συστήματα που διαμορφώνουν τη σύγχρονη ζωή μας.

Σκεφτείτε πράγματα όπως chatbots στο ηλεκτρονικό εμπόριο, διαγνωστικά στην υγειονομική περίθαλψη, προσλήψεις σε ανθρώπινους πόρους και παρακολούθηση στην αστυνόμευση. Όλα αυτά τα εργαλεία υπόσχονται να ενισχύσουν την αποτελεσματικότητα και να προσφέρουν καινοτόμες λύσεις, αλλά φέρουν επίσης σημαντικούς κινδύνους αν δεν υπάρξει προσεκτική διαχείριση. Οι προκαταλήψεις σε αυτούς τους τύπους εργαλείων τεχνητής νοημοσύνης μπορούν να επιδεινώσουν τις υπάρχουσες ανισότητες και να δημιουργήσουν νέες μορφές διακρίσεων.

Φανταστείτε μια επιτροπή αποφυλάκισης να συμβουλεύεται ένα σύστημα τεχνητής νοημοσύνης για να καθορίσει την πιθανότητα ένας κρατούμενος να προσβάλει εκ νέου. Θα ήταν ανήθικο για τον αλγόριθμο να κάνει μια σύνδεση μεταξύ της φυλής ή του φύλου του κρατούμενου στον καθορισμό αυτής της πιθανότητας.

Οι μεροληψίες στις λύσεις γενετικής ΑΙ μπορούν επίσης να οδηγήσουν σε αποτελέσματα που εισάγουν διακρίσεις. Για παράδειγμα, αν ένα μοντέλο ΑΙ χρησιμοποιείται για τη δημιουργία περιγραφών εργασίας, πρέπει να σχεδιαστεί για να αποφευχθεί η ενσωμάτωση μεροληπτικής γλώσσας ή ο αποκλεισμός ορισμένων δημογραφικών στοιχείων ακούσια. Η μη αντιμετώπιση αυτών των προκαταλήψεων θα μπορούσε να οδηγήσει σε πρακτικές πρόσληψης που εισάγουν διακρίσεις και να διαιωνίσει τις ανισότητες στο εργατικό δυναμικό.

Παραδείγματα όπως αυτό δείχνουν γιατί είναι σημαντικό για τους οργανισμούς να ασκούν υπεύθυνη τεχνητή νοημοσύνη βρίσκοντας τρόπους να μετριάσουν την μεροληψία πριν χρησιμοποιήσουν την τεχνητή νοημοσύνη για να ενημερώσουν τις αποφάσεις που επηρεάζουν τους πραγματικούς ανθρώπους. Η διασφάλιση της δικαιοσύνης, της ακρίβειας και της διαφάνειας στα συστήματα τεχνητής νοημοσύνης είναι απαραίτητη για τη διαφύλαξη των ατόμων και τη διατήρηση της εμπιστοσύνης του κοινού.

Προϊόν SAP

SAP Business AI

Επίτευξη αποτελεσμάτων πραγματικού κόσμου με ΑΙ ενσωματωμένη στις βασικές επιχειρηματικές διαδικασίες σας.

Μάθετε περισσότερα

Από πού προέρχεται η μεροληψία AI;

Η μεροληψία της τεχνητής νοημοσύνης μπορεί να προέρχεται από διάφορες πηγές που μπορούν να επηρεάσουν τη δικαιοσύνη και την αξιοπιστία των συστημάτων τεχνητής νοημοσύνης:

Προκατάληψη δεδομένων: Οι μεροληψίες που υπάρχουν στα δεδομένα που χρησιμοποιούνται για την εκπαίδευση των μοντέλων τεχνητής νοημοσύνης μπορούν να οδηγήσουν σε μεροληπτικά αποτελέσματα. Εάν τα δεδομένα εκπαίδευσης αντιπροσωπεύουν κατά κύριο λόγο ορισμένα δημογραφικά στοιχεία ή περιέχουν ιστορικές προκαταλήψεις, η τεχνητή νοημοσύνη θα αντικατοπτρίζει αυτές τις ανισορροπίες στις προβλέψεις και τις αποφάσεις της.

Αλγοριθμική μεροληψία: Αυτό συμβαίνει όταν ο σχεδιασμός και οι παράμετροι των αλγορίθμων εισάγουν ακούσια μεροληψία. Ακόμη και αν τα δεδομένα είναι αμερόληπτα, ο τρόπος με τον οποίο οι αλγόριθμοι επεξεργάζονται και ιεραρχούν ορισμένα χαρακτηριστικά έναντι άλλων μπορεί να οδηγήσει σε αποτελέσματα που εισάγουν διακρίσεις.

Προκατάληψη ανθρώπινης απόφασης: Η ανθρώπινη μεροληψία, επίσης γνωστή ως γνωστική μεροληψία, μπορεί να διεισδύσει στα συστήματα AI μέσω υποκειμενικών αποφάσεων στην επισήμανση δεδομένων, στην ανάπτυξη μοντέλων και σε άλλα στάδια του κύκλου ζωής της AI. Αυτές οι προκαταλήψεις αντικατοπτρίζουν τις προκαταλήψεις και τις γνωστικές προκαταλήψεις των ατόμων και των ομάδων που εμπλέκονται στην ανάπτυξη των τεχνολογιών τεχνητής νοημοσύνης.

Προκατάληψη δημιουργικής AI: Τα μοντέλα Generative AI, όπως αυτά που χρησιμοποιούνται για τη δημιουργία κειμένου, εικόνων ή βίντεο, μπορούν να παράγουν μεροληπτικό ή ακατάλληλο περιεχόμενο βάσει των μεροληψιών που υπάρχουν στα δεδομένα εκπαίδευσής τους. Αυτά τα μοντέλα μπορεί να ενισχύσουν τα στερεότυπα ή να δημιουργήσουν αποτελέσματα που περιθωριοποιούν ορισμένες ομάδες ή απόψεις.

Παραδείγματα μεροληψίας στην τεχνητή νοημοσύνη

Οι επιπτώσεις της προκατάληψης της τεχνητής νοημοσύνης μπορεί να είναι ευρέως διαδεδομένες και βαθιές, επηρεάζοντας διάφορες πτυχές της κοινωνίας και της ζωής των ατόμων.

Ακολουθούν μερικά παραδείγματα για το πώς η μεροληψία στην τεχνητή νοημοσύνη μπορεί να επηρεάσει διαφορετικά σενάρια:

Βαθμολόγηση και δανεισμός πιστώσεων: Οι αλγόριθμοι βαθμολόγησης της πιστοληπτικής ικανότητας μπορεί να θέσουν σε μειονεκτική θέση ορισμένες κοινωνικοοικονομικές ή φυλετικές ομάδες. Για παράδειγμα, τα συστήματα ενδέχεται να είναι αυστηρότερα για τους αιτούντες που προέρχονται από συνοικίες χαμηλού εισοδήματος, οδηγώντας σε υψηλότερα ποσοστά απόρριψης.

Πρόσληψη και πρόσληψη: Αλγόριθμοι διαλογής και δημιουργοί περιγραφής θέσεων εργασίας μπορούν να διαιωνίσουν τις προκαταλήψεις στο χώρο εργασίας. Για παράδειγμα, ένα εργαλείο μπορεί να ευνοήσει τους παραδοσιακούς όρους που σχετίζονται με τα αρσενικά ή να τιμωρήσει τις διαφορές στην απασχόληση, επηρεάζοντας τις γυναίκες και τους φροντιστές.

Υγειονομική Περίθαλψη: Η τεχνητή νοημοσύνη μπορεί να εισαγάγει προκαταλήψεις στις διαγνώσεις και τις συστάσεις θεραπείας. Για παράδειγμα, τα συστήματα που εκπαιδεύονται σε δεδομένα από μία μόνο εθνοτική ομάδα μπορεί να διαγνώσουν εσφαλμένα άλλες ομάδες.

Εκπαίδευση: Οι αλγόριθμοι αξιολόγησης και εισδοχής μπορούν να είναι μεροληπτικοί. Για παράδειγμα, μια τεχνητή νοημοσύνη που προβλέπει την επιτυχία των μαθητών μπορεί να ευνοήσει όσους προέρχονται από καλά χρηματοδοτούμενα σχολεία σε σχέση με τα υποχρηματοδοτούμενα υπόβαθρα.

Επιβολή του νόμου: Οι αλγόριθμοι προληπτικής αστυνόμευσης μπορούν να οδηγήσουν σε προκατειλημμένες πρακτικές. Για παράδειγμα, οι αλγόριθμοι μπορεί να προβλέπουν υψηλότερα ποσοστά εγκληματικότητας σε μειονοτικές γειτονιές, με αποτέλεσμα την υπερβολική αστυνόμευση.

Αναγνώριση προσώπου: Τα συστήματα συχνά αγωνίζονται με τη δημογραφική ακρίβεια. Για παράδειγμα, μπορεί να έχουν υψηλότερα ποσοστά σφάλματος αναγνωρίζοντας τους πιο σκούρους τόνους του δέρματος.

Αναγνώριση φωνής: Τα συστήματα μπορεί να δείξουν μεροληψία έναντι ορισμένων τόνων ή διαλέκτων. Για παράδειγμα, οι βοηθοί τεχνητής νοημοσύνης μπορεί να δυσκολεύονται με μη φυσικούς ομιλητές ή τοπικές προφορές, μειώνοντας τη χρηστικότητα.

Δημιουργία εικόνας: Τα συστήματα παραγωγής εικόνας βάσει AI μπορούν να κληρονομήσουν μεροληπτικά στοιχεία που υπάρχουν στα δεδομένα εκπαίδευσής τους. Για παράδειγμα, μια γεννήτρια εικόνας μπορεί να υποδηλώσει ή να παραποιήσει ορισμένες φυλετικές ή πολιτιστικές ομάδες, οδηγώντας σε στερεότυπα ή αποκλεισμό στις παραγόμενες εικόνες.

Σύσταση περιεχομένου: Οι αλγόριθμοι μπορούν να διαιωνίσουν τους θαλάμους ηχούς. Για παράδειγμα, ένα σύστημα μπορεί να παρουσιάζει πολιτικά προκατειλημμένο περιεχόμενο, ενισχύοντας τις υπάρχουσες απόψεις.

Ασφάλιση: Οι αλγόριθμοι μπορούν να καθορίσουν άδικα τα ασφάλιστρα ή την επιλεξιμότητα. Για παράδειγμα, τα ασφάλιστρα που βασίζονται σε ταχυδρομικούς κώδικες μπορεί να οδηγήσουν σε υψηλότερο κόστος για τις μειονοτικές κοινότητες.

Μέσα κοινωνικής δικτύωσης και μετριασμός περιεχομένου: Οι αλγόριθμοι επόπτευσης μπορούν να επιβάλουν χωρίς συνέπεια πολιτικές. Για παράδειγμα, οι δημοσιεύσεις των μειονοτικών χρηστών μπορεί να επισημανθούν άδικα ως προσβλητικές σε σύγκριση με τους χρήστες πλειοψηφικής ομάδας.

Ποιες είναι οι επιπτώσεις της προκατάληψης της τεχνητής νοημοσύνης;

Οι επιπτώσεις της προκατάληψης της τεχνητής νοημοσύνης μπορεί να είναι ευρέως διαδεδομένες και βαθιές. Αν δεν αντιμετωπιστεί, η μεροληψία της τεχνητής νοημοσύνης μπορεί να βαθύνει τις κοινωνικές ανισότητες, να ενισχύσει τα στερεότυπα και να σπάσει τους νόμους.

Κοινωνικές ανισότητες: Η μεροληψία για την τεχνητή νοημοσύνη μπορεί να επιδεινώσει τις υπάρχουσες κοινωνικές ανισότητες επηρεάζοντας δυσανάλογα τις περιθωριοποιημένες κοινότητες, οδηγώντας σε περαιτέρω οικονομικές και κοινωνικές ανισότητες.

Ενίσχυση των στερεοτύπων: Τα μεροληπτικά συστήματα τεχνητής νοημοσύνης μπορούν να ενισχύσουν τα επιβλαβή στερεότυπα, διαιωνίζοντας αρνητικές αντιλήψεις και αντιμετώπιση ορισμένων ομάδων με βάση τη φυλή, το φύλο ή άλλα χαρακτηριστικά. Για παράδειγμα, τα μοντέλα επεξεργασίας φυσικής γλώσσας (NLP) μπορούν να συσχετίσουν ορισμένες θέσεις εργασίας με ένα φύλο, το οποίο διαιωνίζει την προκατάληψη λόγω φύλου.

Ηθικές και νομικές ανησυχίες: Η παρουσία μεροληψίας στην τεχνητή νοημοσύνη εγείρει σημαντικές ηθικές και νομικές ανησυχίες, αμφισβητώντας τη δικαιοσύνη και τη δικαιοσύνη των αυτοματοποιημένων αποφάσεων. Οι οργανισμοί πρέπει να πλοηγηθούν σε αυτά τα ζητήματα προσεκτικά για να συμμορφωθούν με τα νομικά πρότυπα και να υποστηρίξουν τις ηθικές ευθύνες.

Οικονομικές επιπτώσεις: Οι μεροληπτικοί αλγόριθμοι μπορούν να θέσουν άδικα σε μειονεκτική θέση ορισμένες ομάδες, περιορίζοντας τις ευκαιρίες απασχόλησης και διαιωνίζοντας την ανισότητα στον χώρο εργασίας. Οι πλατφόρμες εξυπηρέτησης πελατών καθοδηγούμενες από την AI, όπως το chatbots, μπορεί να προσφέρουν φτωχότερες υπηρεσίες σε ορισμένα δημογραφικά στοιχεία, οδηγώντας σε δυσαρέσκεια και απώλεια επιχειρηματικής δραστηριότητας.

Επιχειρηματικές επιπτώσεις: Το bias στα συστήματα AI μπορεί να οδηγήσει σε ελαττωματική λήψη αποφάσεων και μειωμένη κερδοφορία. Οι εταιρείες μπορεί να υποστούν ζημιά στη φήμη αν οι προκαταλήψεις στα εργαλεία τεχνητής νοημοσύνης τους γίνουν δημόσιες, πιθανώς χάνοντας την εμπιστοσύνη των πελατών και το μερίδιο αγοράς.

Επιπτώσεις στην υγεία και την ασφάλεια: Στην υγειονομική περίθαλψη, τα προκατειλημμένα διαγνωστικά εργαλεία μπορούν να οδηγήσουν σε εσφαλμένες διαγνώσεις ή σε μη βέλτιστα σχέδια θεραπείας για ορισμένες ομάδες, επιδεινώνοντας τις ανισότητες στην υγεία.

Ψυχολογική και κοινωνική ευημερία: Η τακτική έκθεση σε προκατειλημμένες αποφάσεις για την τεχνητή νοημοσύνη μπορεί να προκαλέσει στρες και άγχος στα επηρεαζόμενα άτομα, επηρεάζοντας την ψυχική τους υγεία.

Πώς να μετριάσετε την μεροληψία στην τεχνητή νοημοσύνη

Η αποτελεσματική αντιμετώπιση και ο μετριασμός της μεροληψίας στα συστήματα τεχνητής νοημοσύνης απαιτεί μια ολοκληρωμένη προσέγγιση. Ακολουθούν διάφορες βασικές στρατηγικές που μπορούν να εφαρμοστούν για την επίτευξη δίκαιων και δίκαιων αποτελεσμάτων:

Τεχνικές προεπεξεργασίας δεδομένων: Αυτό περιλαμβάνει μετασχηματισμό, καθαρισμό και εξισορρόπηση των δεδομένων για να μειωθεί η επιρροή των διακρίσεων πριν τα μοντέλα τεχνητής νοημοσύνης εκπαιδευτούν σε αυτά.

Αλγόριθμοι που γνωρίζουν τη δικαιοσύνη: Αυτή η προσέγγιση κωδικοποιεί τους κανόνες και τις οδηγίες για να διασφαλίσει ότι τα αποτελέσματα που παράγονται από τα μοντέλα ΑΙ είναι δίκαια για όλα τα άτομα ή τις ομάδες που εμπλέκονται.

Τεχνικές μετεπεξεργασίας δεδομένων: Η μετεπεξεργασία δεδομένων προσαρμόζει τα αποτελέσματα των μοντέλων τεχνητής νοημοσύνης για να βοηθήσει στη διασφάλιση δίκαιης μεταχείρισης. Σε αντίθεση με την προεπεξεργασία, αυτή η βαθμονόμηση συμβαίνει μετά τη λήψη απόφασης. Για παράδειγμα, ένα μεγάλο γλωσσικό μοντέλο που παράγει κείμενο μπορεί να περιλαμβάνει έναν screener για τον εντοπισμό και το φιλτράρισμα της ρητορικής μίσους.

Έλεγχος και διαφάνεια: Η ανθρώπινη εποπτεία ενσωματώνεται στις διαδικασίες για τον έλεγχο των αποφάσεων που προκύπτουν από την AI για μεροληψία και δικαιοσύνη. Οι προγραμματιστές μπορούν επίσης να παρέχουν διαφάνεια στον τρόπο με τον οποίο τα συστήματα τεχνητής νοημοσύνης καταλήγουν σε συμπεράσματα και αποφασίζουν πόση βαρύτητα θα δώσουν αυτά τα αποτελέσματα. Αυτά τα ευρήματα χρησιμοποιούνται στη συνέχεια για να βελτιώσουν περαιτέρω τα εργαλεία AI που εμπλέκονται.

Συνεργατικές προσπάθειες για τον μετριασμό της μεροληψίας της τεχνητής νοημοσύνης

Για εταιρείες που χρησιμοποιούν επιχειρηματικές λύσεις AI, η αντιμετώπιση της μεροληψίας AI απαιτεί μια συνεργατική προσέγγιση που περιλαμβάνει βασικά τμήματα. Οι βασικές στρατηγικές περιλαμβάνουν:

Η εφαρμογή αυτών των στρατηγικών επιτρέπει στους οργανισμούς να εργαστούν προς πιο δίκαια συστήματα τεχνητής νοημοσύνης, προωθώντας παράλληλα μια κουλτούρα χωρίς αποκλεισμούς στο χώρο εργασίας.

Αναδυόμενες τάσεις στην ανάπτυξη δίκαιης τεχνητής νοημοσύνης

Αρκετές αναδυόμενες τάσεις έχουν ως στόχο να καταστήσουν την τεχνητή νοημοσύνη πιο δίκαιη και πιο δίκαιη:

Επεξηγήσιμο AI (XAI): Υπάρχει αυξανόμενη ζήτηση για διαφάνεια στις διαδικασίες λήψης αποφάσεων AI. Το Explainable AI έχει ως στόχο να καταστήσει τη λειτουργία των συστημάτων AI κατανοητή για τους χρήστες, βοηθώντας τους να κατανοήσουν πώς λαμβάνονται οι αποφάσεις και διασφαλίζοντας τη λογοδοσία.

Σχεδιασμός με επίκεντρο τον χρήστη: Η ανάπτυξη της τεχνητής νοημοσύνης επικεντρώνεται όλο και περισσότερο στις ανάγκες και τις προοπτικές των χρηστών, διασφαλίζοντας ότι τα συστήματα σχεδιάζονται με γνώμονα την συμμετοχικότητα. Αυτή η τάση ενθαρρύνει τα σχόλια από διαφορετικές ομάδες χρηστών για την ενημέρωση της διαδικασίας ανάπτυξης.

Κοινοτική δέσμευση: Οι εταιρείες αρχίζουν να συνεργάζονται με τις κοινότητες που επηρεάζονται από τα συστήματα τεχνητής νοημοσύνης για τη συγκέντρωση πληροφοριών και ανατροφοδότησης, συμβάλλοντας στη διασφάλιση ότι η διαδικασία ανάπτυξης λαμβάνει υπόψη τις ανάγκες και τις ανησυχίες των διαφόρων ενδιαφερόμενων μερών.

Χρήση συνθετικών δεδομένων: Για την αντιμετώπιση της σπανιότητας και της μεροληψίας των δεδομένων, οι οργανισμοί διερευνούν τη χρήση συνθετικών δεδομένων για την αύξηση των εκπαιδευτικών συνόλων. Αυτή η προσέγγιση επιτρέπει τη δημιουργία διαφορετικών συνόλων δεδομένων χωρίς να διακυβεύεται η προστασία της ιδιωτικής ζωής.

Fairness-by-design: Αυτή η προληπτική προσέγγιση ενσωματώνει ζητήματα δικαιοσύνης στον κύκλο ζωής ανάπτυξης της AI από την αρχή, και όχι ως μεταγενέστερη σκέψη. Περιλαμβάνει την ανάπτυξη δίκαιων αλγορίθμων και τη διενέργεια εκτιμήσεων επιπτώσεων κατά τη φάση του σχεδιασμού.

Η συνεργασία μέσω αυτών των προσεγγίσεων μπορεί να μειώσει σημαντικά την μεροληψία της τεχνητής νοημοσύνης, διασφαλίζοντας ότι οι τεχνολογίες τεχνητής νοημοσύνης εξυπηρετούν το ευρύτερο καλό και ωφελούν όλους τους τομείς της κοινωνίας δίκαια.

Προϊόν SAP

Υπεύθυνη AI με SAP

Δείτε πώς η SAP παρέχει AI με βάση τα υψηλότερα πρότυπα δεοντολογίας, ασφάλειας και απορρήτου.

Μάθετε περισσότερα

Διαβάστε περισσότερα