Τρίτη 12 Μαρτίου 2024

Oι 15 πιο χακαρισμένοι κωδικοί πρόσβασης








Ένας ειδικός σε θέματα προστασίας προσωπικών δεδομένων, αποκάλυψε τους 15 πιο συνηθισμένους κωδικούς πρόσβασης για το 2024.

  • 123456
  • 123456789
  • admin
  • Qwerty
  • welcome
  • Password
  • Password1
  • p@ssw0rd
  • 12345
  • Qwerty123
  • 1q2w3e
  • 12345678
  • 111111
  • 1234567890
  • Q2w3e4r5t
Σύμφωνα και με έρευνες, ο πιο συχνά παραβιασμένος κωδικός πρόσβασης στον κόσμο είναι ο «123456», ο οποίος έχει εμφανιστεί ανησυχητικές 37.615.252 φορές σε παραβιάσεις δεδομένων μέχρι σήμερα.

Παρόλα αυτά, παραμένει ο πιο δημοφιλής κωδικός πρόσβασης παγκοσμίως, που χρησιμοποιείται συνολικά πάνω από 4,5 εκατομμύρια φορές. Ο δεύτερος πιο συχνά παραβιασμένος κωδικός πρόσβασης είναι ο «123456789», ο οποίος εμφανίζεται 16,7 εκατομμύρια φορές σε παραβιάσεις δεδομένων.

Οι μισοί από τους πιο συχνά παραβιασμένους κωδικούς πρόσβασης στην πραγματικότητα αποτελούνται από απλούς συνδυασμούς αριθμών: «111111» (προβλήθηκε 4,9 εκατομμύρια φορές σε παραβιάσεις), «123123» (3,6 εκατομμύρια) και «666666» (1, 5 εκατομμύρια).

Στην Ιταλία, εκτός από την προαναφερθείσα σειρά αριθμών, στην κορυφή της κατάταξης των χακαρισμένων κωδικών πρόσβασης βρίσκουμε τους «andrea» (εμφανίζεται 353.588 φορές σε περίπτωση παραβάσεων), «admin» (276.638) και «juventus» (215.571).

Ένας από τους πιο χακαρισμένους κωδικούς πρόσβασης στις ΗΠΑ είναι το Iloveyou

Οι λέξεις που σχετίζονται με τον πολιτισμό είναι επίσης δημοφιλείς παγκοσμίως και σε πολλές χώρες. Λέξεις όπως «angel», «dragon» και «superman» που σχετίζονται πολιτισμικά με μια ευρεία κατηγορία χρηστών.

Οι περισσότεροι Ευρωπαίοι χρήστες (ιδιαίτερα Ιταλοί και Ισπανοί) προτιμούν να χρησιμοποιούν ονόματα ως κωδικούς πρόσβασης.

Οι Ρώσοι χρήστες προτιμούν τα μοτίβα πληκτρολογίου από τις λέξεις με νόημα, ακόμη και όταν χρησιμοποιούν αλφαριθμητικούς χαρακτήρες ως κωδικούς πρόσβασης.

Ένα από τα πιο συχνά χρησιμοποιούμενα χρόνια στους κωδικούς πρόσβασης είναι το 2013. H συγκεκριμένη χρονιά χρησιμοποιείται τόσο ως πρόθεμα όσο και ως επίθεμα στους κωδικούς πρόσβασής τους. Ωστόσο, η χρήση μιας τέτοιας κοινά επιλεγμένης χρονιάς καθιστά τον κωδικό πρόσβασής σας εξαιρετικά ευάλωτο σε hacking. Άλλα κοινά έτη ως κωδικό περιλαμβάνουν το 2000 και το 2010.

Πολλά άτομα χρησιμοποιούν συχνά τα έτη γέννησής τους, ένα έτος σπουδαιότητας στην οικογένειά τους ή το έτος που δημιούργησαν τον κωδικό πρόσβασης. Αυτό καθιστά τον κωδικό πρόσβασής τους εξαιρετικά ευάλωτο σε hacking, καθώς πολλά από αυτά τα δεδομένα μπορούν να βρεθούν δημόσια ή να ληφθούν αβίαστα από τεχνικά καταρτισμένους χάκερ.

Αν χρησιμοποιείτε έναν από αυτούς τους κωδικούς πρόσβασης, πρέπει να τον αλλάξετε αμέσως.

Η συμβουλή των ειδικών είναι 
  • να επιλέγετε πάντα μεγάλους κωδικούς πρόσβασης (τουλάχιστον 8 χαρακτήρες)
  • συμπεριλάβετε τουλάχιστον ένα ΚΕΦΑΛΑΙΟ και ένα πεζό γράμμα.
  • να χρησιμοποιείτε ειδικούς χαρακτήρες όπως σημεία στίξης εκτός από την ανάμειξη γραμμάτων και αριθμών 
  • να χρησιμοποιείτε ως κωδικούς μεγάλες φράσεις για να τους θυμάστε εύκολα
  • Μη χρησιμοποιείτε λέξεις που υπάρχουν στο λεξικό
  • Αποφύγετε το προφανές: Δεν χρησιμοποιούμε passwords όπως «123456» ή τη λέξη «password»
  • Δημιουργήστε ένα δικό σας κωδικό από μια αγαπημένη σας φράση χρησιμοποιώντας τα αρχικά των λέξεων
  • Μην μένετε ποτέ συνδεδεμένοι στους λογαριασμούς σας
  • να μην έχετε τον ίδιο κωδικό πρόσβασης για όλους τους λογαριασμούς.
  • να αλλάζετε συχνά τους κωδικούς πρόσβασης

Πηγή:

Τρίτη 13 Φεβρουαρίου 2024

Η δημοκρατία μετά το τέλος της αλήθειας (Deepfake Καθημερινή)

Τι επιπτώσεις θα έχει η νέα εικονική πραγματικότητα στις εκλογές, σε μια χρονιά που καλούνται να ψηφίσουν 4 δισ. άνθρωποι σε όλο τον κόσμo;


«Μυστικός δείπνος των τριών», θα μπορούσε να λέει ο τίτλος. Αν η εικόνα είχε και ήχο, με τις φωνές των εικονιζομένων (και αν έλειπε και το σκόπιμα υπερβολικό στυλιζάρισμα) θα μπορούσε να είχε γίνει πιστευτή ως «πληροφορία». Ηδη η τεχνητή νοημοσύνη χρησιμοποιείται ως προπαγανδιστικό υπερόπλο για προεκλογικούς σκοπούς στις ΗΠΑ και στην Ευρώπη. [Ψηφιακό έργο με τίτλο «PowerPowerPower» της Δανάης Ισαρη με τη χρήση του AI προγράμματος Midjourney.]



Στις 22 Ιανουαρίου, την ημέρα πριν από τις προκριματικές εκλογές στο Νιου Χαμσάιρ, ένας αδιευκρίνιστος αριθμός ψηφοφόρων δέχθηκε αυτοματοποιημένο τηλεφώνημα (robocall) στο οποίο μια φωνή πανομοιότυπη με του Τζο Μπάιντεν τους παρότρυνε να μην προσέλθουν στις κάλπες. Το μήνυμα περιελάμβανε τη λέξη «malarkey», την οποία χρησιμοποιεί συχνά ο Μπάιντεν, για να φανεί πιο αυθεντικό.

Μία ημέρα νωρίτερα, στην Τουρκία, ενόψει των δημοτικών εκλογών της 31ης Μαρτίου, κυκλοφόρησε παραποιημένο βίντεο στο οποίο ο υποστηριζόμενος από την αντιπολίτευση δήμαρχος Κωνσταντινούπολης Εκρέμ Ιμάμογλου επαινεί το κυβερνών AKP για το έργο το οποίο παρέλαβε όταν εξελέγη το 2019. Το επιτελείο του Ιμάμογλου κατηγόρησε ευθέως στελέχη του AKP στην Κωνσταντινούπολη για την παραγωγή του ψευδούς οπτικοακουστικού υλικού.

Το 2024 είναι η «μεγαλύτερη εκλογική χρονιά στην Ιστορία», σύμφωνα με το περιοδικό Economist. Σε χώρες με αθροιστικό πληθυσμό μεγαλύτερο από 4 δισ., οι πολίτες θα προσέλθουν στις κάλπες για να επιλέξουν τον επόμενο ηγέτη τους ή τις νέες αρχές της τοπικής αυτοδιοίκησης, σε διαδικασίες περισσότερο ή λιγότερο ελεύθερες και δίκαιες.

Οι εκλογικές αυτές αναμετρήσεις είναι μεταξύ των πρώτων που θα λάβουν χώρα στην εποχή του ChatGPT. Η «παραγωγική» τεχνητή νοημοσύνη (generative AI), μεταξύ των πολλών εκπληκτικών ικανοτήτων της, έχει μια τρομακτική ευχέρεια στη δημιουργία αληθοφανών εικόνων και ήχων. Αν αναλογιστούμε το εύρος της παραπληροφόρησης που συνόδευσε την εξάπλωση της χρήσης των μέσων κοινωνικής δικτύωσης, είναι εύλογο ο κόσμος των λεγόμενων deepfakes να προκαλεί τρόμο. Πόσο πιο δύσκολος θα είναι πλέον ο διαχωρισμός μεταξύ της αλήθειας και του ψεύδους όταν οι αλγόριθμοι μπορούν να παράγουν τεχνητό οπτικοακουστικό υλικό πανομοιότυπο με το πραγματικό;

Ο Aντον Κόρινεκ, καθηγητής Οικονομικών στο Πανεπιστήμιο της Βιρτζίνια, non-resident fellow στο ινστιτούτο Brookings και επικεφαλής στο πεδίο των Οικονομικών της Τεχνητής Νοημοσύνης στο Center for the Governance of AI λέει στην Καθημερινή ότι το 2024 μπορεί να υπάρξει σημαντική εξάπλωση της παραπληροφόρησης μέσω τεχνητής νοημοσύνης, για δύο λόγους: «Η πρόσφατη πρόοδος στην Τ.Ν. διευκολύνει σημαντικά την παραγωγή ιδιαίτερα πειστικών deepfakes και άλλων μορφών ψηφιακής παραπλάνησης. Οι τεχνολογίες αυτές είναι πλέον πολύ πιο προσβάσιμες, καθώς απαιτούν πολύ λιγότερες τεχνικές γνώσεις».

Δεύτερον, προσθέτει, «η ταχύτητα με την οποία υλικό παραγόμενο από την Τ.Ν. μπορεί να δημιουργηθεί και να διαδοθεί στα μέσα κοινωνικής δικτύωσης και σε άλλες ψηφιακές πλατφόρμες ενισχύει τον πιθανό αντίκτυπο τέτοιων εκστρατειών παραπληροφόρησης. Αντίθετα με παραδοσιακές μορφές προπαγάνδας, η παραπληροφόρηση που παράγεται από την Τ.Ν. μπορεί να προσαρμοστεί και να στοχεύσει σε συγκεκριμένες δημογραφικές ομάδες, ακόμη και σε συγκεκριμένα άτομα».

Αυταρχικά άτομα μπορούν να χρησιμοποιήσουν παραγωγική Τ.Ν. για να διαμορφώσουν την κοινή γνώμη ώστε να οξύνουν τον διχασμό στις κοινωνίες.

Η νέα τεχνολογία μπορεί να χρησιμοποιηθεί από ξένες υπηρεσίες για να επηρεάσει το αποτέλεσμα στις εκλογές μιας χώρας. Στόχοι μιας τέτοιας επιχείρησης δεν είναι μόνο οι υποψήφιοι, αλλά επίσης δημοσιογράφοι και οι υπεύθυνοι για την εκλογική διαδικασία.

Εταιρείες κοινωνικών δικτύων όπως το Χ (πρώην Twitter), η Meta και η Alphabet (Google), παίρνουν μέτρα προφύλαξής αλλά φοβούνται μην κατηγορηθούν για λογοκρισία.
Δυσδιάκριτα όρια

Είναι σαφές ότι ο πολλαπλασιασμός των deepfakes θα κάνει πολλούς ψηφοφόρους να πιστέψουν πράγματα που δεν ισχύουν. Προκύπτει όμως και το αντίστροφο πρόβλημα: στον κόσμο των deepfakes αυξάνεται γεωμετρικά ο σκεπτικισμός απέναντι στο αληθινό.

Το γεγονός ότι μπορεί να υπάρχουν deepfakes δημιουργεί εντελώς νέες μορφές δυνατότητας διάψευσης αληθινών γεγονότων.

Ο Τραμπ, σε ανάρτησή του στο Truth Social, ισχυρίστηκε ότι βίντεο που τον δείχνει να μιλάει ακατάληπτα και να μπερδεύει το πού βρίσκεται είναι «ψευδές» και δημιουργήθηκε με τη χρήση τεχνητής νοημοσύνης. Αντίστοιχες γραμμές υπεράσπισης υιοθέτησαν υποστηρικτές ενός Ταϊβανέζου πολιτικού που φαίνεται να μπαίνει σε δωμάτιο ξενοδοχείου με μια γυναίκα που δεν είναι η σύζυγός του, αλλά και ένας Ινδός πολιτικός ο οποίος ακούγεται σε ένα ηχητικό να κατηγορεί το κόμμα του στο Ταμίλ Ναντού για σοβαρές οικονομικές ατασθαλίες.


Διαβάστε ολόκληρο το άρθρο στην "Καθημερινή"