Η DARPA ανακοινώνει $ 2B επένδυση σε AI

Η DARPA ανακοινώνει $ 2B επένδυση σε AI


Σε ένα συμπόσιο στην Ουάσιγκτον, την Παρασκευή, η DARPA ανακοίνωσε σχέδια για να επενδύσει 2 δισεκατομμύρια δολάρια στην έρευνα τεχνητής νοημοσύνης τα επόμενα πέντε χρόνια

ο οργανισμός έχει πλέον πάνω από 20 προγράμματα που βρίσκονται επί του παρόντος στα έργα και θα επικεντρωθεί στην «ενίσχυση της ασφάλειας και της ανθεκτικότητας των τεχνολογιών μηχανικής μάθησης και τεχνολογίας της τεχνολογίας της πληροφορίας, στη μείωση της ισχύος, των δεδομένων, των ανεπαρκών επιδόσεων και της« ερμηνείας »αυτών των συστημάτων.

"Οι μηχανές δεν έχουν δυνατότητες δημιουργίας συμφραζομένων και η εκπαίδευσή τους πρέπει να καλύπτει κάθε πιθανότητα, η οποία δεν είναι μόνο δαπανηρή αλλά τελικά αδύνατη", δήλωσε ο διευθυντής Dr. Steven Walker. "Θέλουμε να διερευνήσουμε πώς οι μηχανές μπορούν να αποκτήσουν ικανότητες επικοινωνίας και συλλογιστικής που μοιάζουν με ανθρώπους, με την ικανότητα να αναγνωρίζουν νέες καταστάσεις και περιβάλλοντα και να προσαρμόζονται σε αυτές."

Η τεχνητή νοημοσύνη είναι ένας ευρύς όρος που μπορεί να καλύψει τα πάντα, από τις διαισθητικές λειτουργίες αναζήτησης μέχρι η πραγματική εκμάθηση μηχανών και όλοι οι ορισμοί βασίζονται σε μεγάλο βαθμό στην κατανάλωση δεδομένων για να ενημερώσουν τους αλγόριθμους τους και να «μάθουν». Η DARPA έχει μακρά ιστορία έρευνας και ανάπτυξης σε αυτό το διάστημα, αλλά πρόσφατα είδε τις προσπάθειές της να ξεπερνούν τις ξένες δυνάμεις όπως η Κίνα το 1969002] Σε πολλές περιπτώσεις, οι τεχνολογίες αυτές – ακόμα και η μηχανική μάθηση – έχουν τη δυνατότητα να αλλάξουν πλήρως όχι μόνο τον τρόπο αλληλεπίδρασης των χρηστών με τη δική τους τεχνολογία, αλλά με τον τρόπο με τον οποίο οι εταιρικοί και κυβερνητικοί οργανισμοί χρησιμοποιούν αυτή την τεχνολογία για να αλληλεπιδράσουν με τους εργαζόμενους και τους πολίτες

. που σχετίζονται με τη μηχανική μάθηση είναι η πιθανή προκατάληψη που μπορεί να ενσωματωθεί σε αυτά τα συστήματα ως αποτέλεσμα των δεδομένων που καταναλώνουν κατά τη διάρκεια της κατάρτισης. Εάν τα δεδομένα περιέχουν τρύπες ή παραπληροφόρηση, τα μηχανήματα μπορούν να καταλήξουν σε λανθασμένα συμπεράσματα – όπως τα άτομα που είναι πιο πιθανό να διαπράξουν εγκλήματα – που μπορεί να έχουν καταστροφικές συνέπειες. Και ακόμα πιο τρομακτικό, όταν έρχεται βιολογικά σε αυτά τα συμπεράσματα, η «μάθηση» μιας μηχανής είναι συγκεχυμένη σε κάτι που ονομάζεται μαύρο κουτί.

Με άλλα λόγια, ακόμη και οι ερευνητές που σχεδιάζουν τους αλγορίθμους δεν μπορούν να ξέρουν αρκετά πώς φτάνουν τα μηχανήματα τα συμπεράσματά τους

Δηλαδή, όταν αντιμετωπίζονται με προσοχή και προοπτική, η έρευνα για την ΑΠ μπορεί να αποτελέσει ισχυρή πηγή καινοτομίας και εξέλιξης. Δεδομένου ότι η DARPA προχωρεί με την έρευνά της, θα δούμε πώς αντιμετωπίζουν αυτές τις σημαντικές τεχνικές και κοινωνικές ερωτήσεις

>Μεταφρασμένο από την Google <
Source link

Αφήστε ένα σχόλιο

Αυτός ο ιστότοπος χρησιμοποιεί το Akismet για να μειώσει τα ανεπιθύμητα σχόλια. Μάθετε πώς υφίστανται επεξεργασία τα δεδομένα των σχολίων σας.