Engineering στο ερευνητικο κομματι του ΑΙ.
http://www.kurzweilai.net/ray-kurzweil-biography
In 2012, Ray Kurzweil became a Director of Engineering at Google, at Research at Google — heading up a team of engineers developing machine intelligence and natural language understanding.
Ενω οι αλλοι κριτικαρουν, αυτος φτιαχνει...Οπότε βλέπεις οτι άνθρωποι με ίσως μεγαλύτερα credentials τον έχουν κριτικάρει για αυτές τις απόψεις.
Ηδη εχουμε self-learning AI που φτιαχνει καλυτερο κωδικα για να αυτοβελτιωθει απ'αυτο που φτιαχνουν οι top προγραμματιστες της google. Το δε duplex αν δε στο πει το ιδιο οτι σου μιλαει AI, δε το καταλαβαινεις. Η google αυτη τη στιγμη εχει ΑΙ τετοιο που συνειδητα κανει τη προφορά του πιο machine-like για να ξερουν οι ανθρωποι οτι μιλανε με ...AI και οχι με ανθρωπο. Δλδ μειωνουν τα specs επειδη ειναι too good / too spooky...
To bottom line μετραει πολυ. Το track record του Kurzweil ως futurist ειναι πολυ δυνατο ===> http://www.kurzweilai.net/predictions/download.phpΟπότε βλέπεις οτι άνθρωποι με ίσως μεγαλύτερα credentials τον έχουν κριτικάρει για αυτές τις απόψεις. Στην πραγματικότητα, κανείς "σοβαρός" ερευνητής ή μηχανικός (απο ότι φαίνεται ούτε συγγραφείς ΕΦ) στον χώρο δεν παίρνει τις απόψεις του Kurzweil τοις μετρητοίς. Μόνο κάτι πάμπλουτοι επιχειρηματίες
"As I discuss in detail below, I made 147 predictions for 2009 in ASM, which I wrote in the 1990s. Of these, 115 (78 percent) are entirely correct as of the end of 2009, and another 12 (8 percent) are “essentially correct” (see below) —a total of 127 predictions (86 percent) are correct or essentially correct. Another 17 (12 percent) are partially correct, and 3 (2 percent) are wrong."
Δε σε βοηθαει, αλλα σιγουρα δεν ειναι θεμα που θα το λυσει η ΕΕ.... γιατι πολυ απλα το cutting edge στο AI research ειναι στις ΗΠΑ. Αυτοι εχουν φυγει κατι εκατομμυρια χιλιομετρα μπροστα ενω οι ευρω-γραφειοκρατες προσπαθουν να ρυθμισουν θεματα που ουτε καν καταλαβαινουν.Πως βοηθάει αυτό στο να κάνουμε ασφαλείς τις εφαρμογές ΤΝ που έχουμε εδώ και τώρα;
Εμφάνιση 31-39 από 39
-
14-04-19, 02:00 Απάντηση: Ευρωπαϊκή Ένωση: οδηγός ηθικής για αξιόπιστη τεχνητή νοημοσύνη -AI- #31
Τελευταία επεξεργασία από το μέλος MNP-10 : 14-04-19 στις 02:15.
-
14-04-19, 03:52 Απάντηση: Ευρωπαϊκή Ένωση: οδηγός ηθικής για αξιόπιστη τεχνητή νοημοσύνη -AI- #32
Δεν καταλαβαίνω τι σημαίνει αυτό. Δεν βγάζει νόημα η πρόταση. (Edit: Το πιασα, το group λέγεται Research at Google, αυτός παραμένει Engineering, Μηχανικός, όχι ερευνητής )
Ενω οι αλλοι κριτικαρουν, αυτος φτιαχνει...
Ηδη εχουμε self-learning AI που φτιαχνει καλυτερο κωδικα για να αυτοβελτιωθει απ'αυτο που φτιαχνουν οι top προγραμματιστες της google. Το δε duplex αν δε στο πει το ιδιο οτι σου μιλαει AI, δε το καταλαβαινεις. Η google αυτη τη στιγμη εχει ΑΙ τετοιο που συνειδητα κανει τη προφορά του πιο machine-like για να ξερουν οι ανθρωποι οτι μιλανε με ...AI και οχι με ανθρωπο. Δλδ μειωνουν τα specs επειδη ειναι too good / too spooky...
Δεν γράφουν κώδικα, αρχιτεκτονική μοντέλων και ιδανικές παραμέτρους βρίσκει ώστε το μοντέλο να δουλεύει όσο καλύτερα γίνεται σε συγκεκριμένα δεδομένα και συγκεκριμένα προβλήματα όσο πιο αυτόματα γίνεται (γιατί είναι τρομέρά κουραστική διαδικασία). Αλλα τα δεδομένα τα δίνει ο άνθρωπος, το πρόβλημα το ορίζει ο άνθρωπος. Αν αλλάξουν τα δεδομένα ή το πρόβλημα η όλη διαδικασία πρέπει να επαναληφθεί (όχι πάντα, αλλα συνήθως). Δεν είναι περίεργο πάντω που κατάφερε να περάσει μοντέλο που γράφτηκε απο άνθρωπο. Γενικά δεν είμαστε καλοί στο να σχεδιάζουμε νευρωνικά γιατί είναι πολύ επίπονη και βαρετή δουλειά και δεν έχουμε ακριβή επίγνωση τι κάνει κάτι μέχρι να το τρέξουμε (και παίρνει ώρα και βαριόμαστε). Δεν είναι μαγεία, ούτε "εφυΐα", απλοί αλγόριθμοι είναι, τις περισσότερες φορές πιο απλοί και απο τα νευρωνικά τα ίδια που σχεδιάζουν.
β) Κάποια 3d γραφικά της δεκαετίας του 90 όταν τα πρωτοέβλεπες δεν καταλάβαινες οτι είναι 3d γραφικά. Τώρα βγάζουν μάτι. Το ίδιο με τους midi ήχους αν τους πρωτοάκουγες, δεν καταλάβαινες οτι δεν ήταν πραγματικό όργανο. Το ίδιο με το duplex, είναι απλά μια καλύτερη έκδοση του οτι είχαμε μέχρι τώρα. Με παίρνουν συνεχώς τηλέφωνο με τον assistant της google για scam, στην αρχή δεν τα καταλαβαίνεις, μετά τα πιάνεις άμεσα.
γ) Αυτό είναι εφαρμογή ethics (αν και πάλι το καταλαβαίνεις). Οι περισσότεροι άνθρωποι δεν έχουν ακούσει και δεν περιμένουν οτι θα τους πάρει στα καλά καθούμενα τηλέφωνο ένας αυτόματος τηλεφωνητής και μπορεί να την πατήσουν σε scam, ή να έχουν προσδοκίες για πράγματα που δεν μπορεί να αντιμετωπίσει ο τηλεφωνητής.
Όλα αυτά είναι εντυπωσιακά αλλα σε καμία περίπτωση δεν είναι δείκτης ΤΝ γενικού τύπου. Για την ακρίβεια κανείς δεν ξέρει πώς αυτή θα φτιαχτεί και πότε. Για την ακρίβεια δεν ξέρει κανείς πιο ακριβώς είναι το πρόβλημα που προσπαθούν να λύσουν. Τουλάχιστον στην παραγωγή ενέργειας με σύντηξη ξέρεις τι πρέπει να κάνεις, γι αυτό πιθανότατα να το δούμε πολύ πριν δούμε οποιαδήποτε είδους ΤΝ γενικού τύπου.
To bottom line μετραει πολυ. Το track record του Kurzweil ως futurist ειναι πολυ δυνατο ===> http://www.kurzweilai.net/predictions/download.php
"As I discuss in detail below, I made 147 predictions for 2009 in ASM, which I wrote in the 1990s. Of these, 115 (78 percent) are entirely correct as of the end of 2009, and another 12 (8 percent) are “essentially correct” (see below) —a total of 127 predictions (86 percent) are correct or essentially correct. Another 17 (12 percent) are partially correct, and 3 (2 percent) are wrong."
"Portable computers will have become dramatically lighter and
thinner than the notebook computers of ten years earlier."
Με αφηρημένες έννοιες: "dramatically". Τι σημαίνει dramatically. Και υπήρχε ήδη το trend να μικραίνουν τα πράγματα.
Απο αυτό στο: Θα έχουμε υπερανθρώπινη ΤΝ υπάρχει ένα κενό, δεν νομίζεις;
Επίσης η έρευνα και η εξέλιξη γίνεται με άτομα που ερευνούν και φτιάχνουν, όχι που κάνουν "προβλέψεις"
Δε σε βοηθαει, αλλα σιγουρα δεν ειναι θεμα που θα το λυσει η ΕΕ.... γιατι πολυ απλα το cutting edge στο AI research ειναι στις ΗΠΑ. Αυτοι εχουν φυγει κατι εκατομμυρια χιλιομετρα μπροστα ενω οι ευρω-γραφειοκρατες προσπαθουν να ρυθμισουν θεματα που ουτε καν καταλαβαινουν.
Που ακριβώς είναι το cutting edge στις ΗΠΑ; Ποια ιδρύματα ακριβώς; Που αναφέρεσαι;Τελευταία επεξεργασία από το μέλος Eruyome(MMXGN) : 14-04-19 στις 04:03.
-
14-04-19, 08:50 Απάντηση: Ευρωπαϊκή Ένωση: οδηγός ηθικής για αξιόπιστη τεχνητή νοημοσύνη -AI- #33
Director ειναι ο τιτλος at engineering at research. Διευθυντης δλδ.
Μπορούν κάποιοι να κάνουν πράγματα ταυτόχρονα. Αλλα οι "άλλοι" κριτίκαραν όταν τους κάνανε ερώτησεις κυρίως. Και τι φτιάχνει ακριβώς; Έχεις δει συνειδητή TN εκεί γύρω;
α) Δεν είναι self-learning, είναι σκέτο develop. Όπως ένας compiler μπορεί να κάνει compile τον εαυτό του με κάποια optimizations και να βγεί o ίδιος compiler με καλύτερο κώδικα μηχανής.
O compiler θα ειχε μια σχετικη αυτονομια αν δοκιμαζε να γραψει τον ιδιο κωδικα με ολες τις δυνατες παραλλαγες σε κωδικα μηχανης και να κανει μετρησεις για τη ταχυτητα εκτελεσης και στη συνεχεια να επιλεξει το δυνατοτερο δυνατο execution path (και παντα αυτο αφορα μονο ενα δεδομενο CPU). Και το παραπανω βεβαια ειναι αλγοριθμικο, δεν εχει καποιο ΑΙ μεσα. Ειναι απλα exhaustive combinations trying + benchmarking.
β) Κάποια 3d γραφικά της δεκαετίας του 90 όταν τα πρωτοέβλεπες δεν καταλάβαινες οτι είναι 3d γραφικά. Τώρα βγάζουν μάτι. Το ίδιο με τους midi ήχους αν τους πρωτοάκουγες, δεν καταλάβαινες οτι δεν ήταν πραγματικό όργανο. Το ίδιο με το duplex, είναι απλά μια καλύτερη έκδοση του οτι είχαμε μέχρι τώρα. Με παίρνουν συνεχώς τηλέφωνο με τον assistant της google για scam, στην αρχή δεν τα καταλαβαίνεις, μετά τα πιάνεις άμεσα.
Όλα αυτά είναι εντυπωσιακά αλλα σε καμία περίπτωση δεν είναι δείκτης ΤΝ γενικού τύπου. Για την ακρίβεια κανείς δεν ξέρει πώς αυτή θα φτιαχτεί και πότε.
Οκ μπράβο του, αλλά τελείως self-assessment (μόνος του έκρινε αν ισχύουν ή όχι) και μιλάμε για predictions του στυλ:
"Portable computers will have become dramatically lighter and
thinner than the notebook computers of ten years earlier."
Με αφηρημένες έννοιες: "dramatically". Τι σημαίνει dramatically. Και υπήρχε ήδη το trend να μικραίνουν τα πράγματα.
Απο αυτό στο: Θα έχουμε υπερανθρώπινη ΤΝ υπάρχει ένα κενό, δεν νομίζεις;
Επίσης η έρευνα και η εξέλιξη γίνεται με άτομα που ερευνούν και φτιάχνουν, όχι που κάνουν "προβλέψεις"
Κάτσε, στην αρχή έλεγες οτι δεν είναι θέμα που πρέπει να λυθεί γιατί θα τους περάσουν οι ΗΠΑ, τώρα λες οτι δεν θα το λύσει η ΕΕ. Τελικά ποιο απο τα δύο είναι;
1) Η Αμερικη προηγειται.
2) Αν καποιος θελει να ανοιξει AI research αυριο και εχει να ασχολειται με το regulatory framework και την συμμορφωση σε αυτο, και αν ανοιξει τα γραφεια του στις ΗΠΑ δεν εχει τετοια θεματα, ενω στην ΕΕ εχει τετοια θεματα και χρειαζεται για καθε βημα που κανει να ασχολειται για τη συμμορφωση στο framework, ε μαντεψε που θα ανοιξει το research center.
Που ακριβώς είναι το cutting edge στις ΗΠΑ; Ποια ιδρύματα ακριβώς; Που αναφέρεσαι;
-
14-04-19, 15:21 Απάντηση: Ευρωπαϊκή Ένωση: οδηγός ηθικής για αξιόπιστη τεχνητή νοημοσύνη -AI- #34
Πάντως εδώ δεν υπάρχει: https://ai.google/research/people/
Μιλαμε για το τι ερχεται. Αν υπηρχε ηδη δε θα συζηταγαμε τα προφανη.
Εχει διαφορά. Ολα τα optimizations του compiler ειναι if/then/else που ειναι pre-programmed απο τους gcc/icc/llvm/visual studio developers.
O compiler θα ειχε μια σχετικη αυτονομια αν δοκιμαζε να γραψει τον ιδιο κωδικα με ολες τις δυνατες παραλλαγες σε κωδικα μηχανης και να κανει μετρησεις για τη ταχυτητα εκτελεσης και στη συνεχεια να επιλεξει το δυνατοτερο δυνατο execution path (και παντα αυτο αφορα μονο ενα δεδομενο CPU). Και το παραπανω βεβαια ειναι αλγοριθμικο, δεν εχει καποιο ΑΙ μεσα. Ειναι απλα exhaustive combinations trying + benchmarking.
So basically autoML is automatic process of model algorithm selection, hyper parameter tuning, iterative modelling, and model assessment.” It is NOT automated data science, nor automated development of artificial intelligence. It is, however, “transforming model building”.
Το πιανεις οταν η προφορα ειναι εσκεμμενα πειραγμενη για να καταλαβεις το ΑΙ. Οταν αντιγραφει μεχρι και τα human mannerisms δεν εχεις τροπο να το πιασεις εκτος απ'το ζουμι της συζητησης στο οποιο ακομα δεν εχει τα singularity επιπεδα.
Μπορει η ακριβης ημερομηνια να μην ειναι ...διαθεσιμη, αλλα ο Kurzweil εχει ενα θεωρητικο πλαισιο. Μια θεωρια (αυτοεπιταχυνομενη εξελιξη λογω low of accelerated returns) που εξηγει το παρελθον, προβλεπει το μελλον και επαληθευεται σε βαθος χρονου. Και βαση αυτης της θεωριας υπαρχει ενα trend line που του βγαζει το αποτελεσμα σε διαφορα ζητηματα τα οποια ιστορικα τον δικαιωνουν.
Κομπιουτεραδες ειμαστε, νομιζω την ουσια της εκαστοτε προβλεψης μπορουμε να τη κρινουμε.
Αυτο κανει.
Και τα 2 ειναι.
1) Η Αμερικη προηγειται.
2) Αν καποιος θελει να ανοιξει AI research αυριο και εχει να ασχολειται με το regulatory framework και την συμμορφωση σε αυτο, και αν ανοιξει τα γραφεια του στις ΗΠΑ δεν εχει τετοια θεματα, ενω στην ΕΕ εχει τετοια θεματα και χρειαζεται για καθε βημα που κανει να ασχολειται για τη συμμορφωση στο framework, ε μαντεψε που θα ανοιξει το research center.
β) Όχι απαραίτητα. Οι leaders (που κάνουν την πραγματική δουλειά) πιστεύουν οτι ένα πλαίσιο είναι απαραίτητο. Ίσα ίσα η ΕΕ προηγείται αυτήν την στιγμή σε αυτόν τον τομέα κάνουντας την θέση τους ξεκάθαρη.
Imagination Engines Inc, Google, Amazon, IBM, Ministry of Defense, Apple και Microsoft σε μικροτερο βαθμο, κτλ.
Γενικά να μην παρεξηγηθώ. Γουστάρω απόλυτα pop sci-fi πράγματα όπως υπερανθρώπινη ΤΝ, transhumanism και τέτοια (είναι ο λόγος που κάνω διδακτορικό στο θέμα) και ελπίζω να ζήσω να τα δω κάποια στιγμή (αν δεν πεθάνουμε πρώτα απο πιο σοβαρούς κινδύνους απο roque AI: Κλιματική αλλαγή, υπερχρήση αντιβιωτικών) αλλα αυτήν την στιγμή η υπερανθρώπινη ΤΝ είναι στα πλάισια επιστημονικής φαντασίας.Τελευταία επεξεργασία από το μέλος Eruyome(MMXGN) : 14-04-19 στις 15:33.
-
14-04-19, 21:49 Απάντηση: Ευρωπαϊκή Ένωση: οδηγός ηθικής για αξιόπιστη τεχνητή νοημοσύνη -AI- #35
Γινεται να μιλαει κανεις για το μελλον και να εχει στοιχεια, αφου το μελλον δεν εχει συμβει ακομα?
Μα αυτό είναι το AutoML ακριβώς! Με καλύτερους αλγόριθμους απο απλά exchaustive search:
Αμα κανεις απλα exhaustive iterations δε χρειαζεσαι neural nets. Ειναι απλα if/then/else οπου προσπαθεις να συμπληρωσεις μια συνθηκη οτι το last version ειναι καλυτερο απ'το προηγουμενο, και αν ειναι το κρατας ως το "μετρο συγκρισης" για το επομενο iteration που θα προκυψει, αν οχι το κανεις discard... και συνεχιζεις στο επομενο iteration και ξανασυγκρινεις στο τελος, κτλ κτλ... οπως το παραδειγμα του compiler που κανει exhaustive iterations μεχρι να βρει το καλυτερο combo εκτελεσιμου asm, με βαση το benchmarking.
Ναι, και τα μέντιουμ όμως έτσι πέφτουν μέσα. Με γενικόλογες αοριστίες.
β) Όχι απαραίτητα. Οι leaders (που κάνουν την πραγματική δουλειά) πιστεύουν οτι ένα πλαίσιο είναι απαραίτητο. Ίσα ίσα η ΕΕ προηγείται αυτήν την στιγμή σε αυτόν τον τομέα κάνουντας την θέση τους ξεκάθαρη.
Με το ιδιο σκεπτικο ολα τα προγραμματα που εχουμε φτιαξει στο παρελθον, οντας χαζοι αλγοριθμοι απο ανθρωπους, θα επρεπε να περνανε απ'τα ιδια τεστ "ηθικης".
Για καποιον που δε θεωρει οτι το ΑΙ ειναι κατι περα απ'τον συνηθη προγραμματισμο, τοτε τι αλλαζει με το ΑΙ? Ο τιτλος? Δλδ το boolean if/then/else ή το fuzzy logic γιατι να μη θελει τεστ ηθικης και να θελει το ΑΙ?
Δλδ αμα εχω ενα boolean ή fuzzy logic συστημα που κρινει καταστασεις και δρα με ενα σετ pre-programmed rules, πχ για το ποιον θα πυροβολησει ενα αυτοματο πολυβολειο, τοτε αυτο δε θελει ηθικη? Αλλα θελει το ΑΙ? Για ποιο λογο γινεται αυτη η "διακριση" εις βαρος του ΑΙ?
Ειτε αυτη η διακριση, απο μονη της, αποτελει παραδοχη ανωτεροτητας του ΑΙ σε σχεση με preprogrammed if/then/else, ειτε υπαρχει υποκρισια απο τους regulators.
Αν θεωρουμε οτι το ΑΙ θα ναι παντα χαζο, και θα υποκειται στον ανθρωπινο ελεγχο και προγραμματισμο, τοτε δε χρειαζομαστε κανενα νομο και regulation γιατι οι νομοι ηδη καλυπτουν τους ανθρωπους. Δλδ εγω απαγορευεται να σκοτωσω καποιον. Αν το κανω με ενα προγραμμα υπολογιστη που εφτιαξα, τοτε παλι απαγορευεται. Και αφου το ΑΙ θα παιρνει "εντολες" απ'τους ανθρωπους, αρα ειμαστε καλυμενοι και δε χρειαζομαστε να φοβομαστε τιποτα.... right?Τελευταία επεξεργασία από το μέλος MNP-10 : 14-04-19 στις 21:55.
-
14-04-19, 23:23 Απάντηση: Ευρωπαϊκή Ένωση: οδηγός ηθικής για αξιόπιστη τεχνητή νοημοσύνη -AI- #36
Εντάξει τα παρατάω. Έχεις βαλθεί να φιλτράρεις τα πάντα που έχω γράψει μέχρι τώρα και να κρατάς μόνο αυτά που θεωρείς οτι επιβεβαιώνουν την άποψη σου και με αναγκάζεις να γράφω ξανά τα ίδια και τα ίδια.
Το bottom line (που λες και σύ) είναι οτι ερευνητές (αυτοί ξέρεις που "φτιάχνουν" το ΤΝ) και κράτη ανα τον κόσμο, μέχρι και η ίδια η Google, έχουν αναγνωρίσει οτι τα ethics στο AI είναι υπαρκτό πρόβλημα και προσπαθούν να κάνουν κάτι για αυτό. Αν ξέρεις καλύτερα οτι δεν χρειάζεται, πιάσε και πες τους το. Δεν είναι και τόσο δύσκολο, οι περισσότεροι είναι στο Twitter και οι υπόλοιποι έχουν email
-
15-04-19, 00:06 Απάντηση: Ευρωπαϊκή Ένωση: οδηγός ηθικής για αξιόπιστη τεχνητή νοημοσύνη -AI- #37Το bottom line (που λες και σύ) είναι οτι ερευνητές (αυτοί ξέρεις που "φτιάχνουν" το ΤΝ) και κράτη ανα τον κόσμο, μέχρι και η ίδια η Google, έχουν αναγνωρίσει οτι τα ethics στο AI είναι υπαρκτό πρόβλημα και προσπαθούν να κάνουν κάτι για αυτό.
Αν καποιος θεωρει οτι το ΑΙ μπορει να πιασει human intelligence and beyond επιπεδα, εννοειται οτι τιθεται θεμα ηθικης.
Απ'την αλλη αν καποιος θεωρει οτι το ΑΙ ειναι απλα if/then/else, τοτε δεν εχει παραπανω λογους να ζηταει εφαρμογη εξτρα ηθικης, αφου το if/then/else προγραμματιζεται απο ανθρωπους και οι ανθρωποι ειναι υπευθυνοι για τα πεπραγμενα του ΑΙ. Αρα η υφισταμενη νομοθεσια ηδη αντιμετωπιζει το προβλημα στη ριζα του: τους ανθρωπους.
-
15-04-19, 00:42 Απάντηση: Ευρωπαϊκή Ένωση: οδηγός ηθικής για αξιόπιστη τεχνητή νοημοσύνη -AI- #38
-
15-04-19, 01:20 Απάντηση: Ευρωπαϊκή Ένωση: οδηγός ηθικής για αξιόπιστη τεχνητή νοημοσύνη -AI- #39
Εγω ειμαι της αποψης οτι το ΑΙ μπορει (και θα γινει) πιο αυτονομο, αρα σ'αυτο το σεναριο ναι μεν χρειαζεται η ηθικη αλλα δεν ειναι τοσο πρακτικο το θεμα (πολλαπλως).
Απ'την αλλη εσυ θεωρεις οτι το ΑΙ ειναι ηλιθιο / preprogrammed, αρα σ'αυτο το σεναριο δεν χρειαζεται ο νομοθετης να κανει κατι γιατι ο νομος καλυπτει ηδη τους ανθρωπους.
Bookmarks