Discussion about this post

User's avatar
VIRGINIA TSOLIKA's avatar

Καλημερα, δεν εχω καποιο προσωπικο παραδειγμα αλγοριθμικης προκαταληψης αλλα παρατηρω συχνα ,πολλοι απο εμας που θετουμε ερωτηματα στο ChatGPT, οτι δε δινει παντα σωστες απαντησεις η πληροφοριες ειτε αφορα καποιο τωρινο γεγονος ειτε παρελθοντικο. Με συνεπεια να μην εμπιστευομαστε η και ν'απομακρυνομαστε απο την Al λογω δυσαρεσκειας. Δε ξερω αν ειναι θεμα δεδομενων προγραμματιστη η τι ακριβως σημαινει αυτο αλλα ειναι τελειως οξυμωρο να βλεπεις οτι γινονται αλματα στον κλαδο της ιατρικης (οπως η πρωτη εξωσωματικη τεκνοποιηση που εγινε πριν λιγους μηνες με τη χρηση της Al) και να μη μπορεις να παρεις μια σωστη απαντηση/πληροφορηση σε ιστορικα γεγονοτα κ.ο.κ. Καθε substack εχει και μια καινουργια πληροφορια , γνωση και προβληματισμο, ευχαριστω θερμα!

Expand full comment
2 more comments...

No posts

Ready for more?