Künstliche Intelligenz und Datenschutz engineering: Warum es geht JETZT

Künstliche Intelligenz und Datenschutz engineering: Warum es geht JETZT

11

Als künstliche Intelligenz weiter verbreitet, Unternehmen und Regierungen sind die Aggregation enormer Datenmengen zu füttern Ihre AI-Initiativen.

Obwohl Privatsphäre ist nicht ein neues Konzept in der EDV, das Wachstum der aggregierten Daten vergrößert Datenschutz-Herausforderungen und führt zu extremen ethischen Risiken wie unabsichtlich Gebäude voreingenommen KI-Systeme, unter vielen anderen.

Privatsphäre und künstliche Intelligenz sind die beiden komplexen Themen. Es gibt keine schnellen oder einfachen Antworten, weil die Lösungen liegen in der Verlagerung und den Konflikt der Schnittstelle von Technologie, kommerzielle profit, der öffentlichen Ordnung, und auch die individuelle und kulturelle Einstellungen.

Angesichts dieser Komplexität, lud ich zwei geniale Menschen teilen Ihre Gedanken in eine CXOTALK Gespräch über Datenschutz und AI. Sehen Sie die eingebettete video oben, um die Teilnahme an der gesamten Diskussion, das war Episode 229 CXOTALK.

Michelle Dennedy ist der Chief Privacy Officer bei Cisco. Sie ist ein Anwalt, Autor des Buches die Privatsphäre Engineer ‘ s Manifest, und einer der weltweit angesehensten Experten auf Privatsphäre engineering.

David Bray ist Chief Ventures Officer bei der National Geospatial-Intelligence Agency. Früher war er Eisenhower Fellow und Chief Information Officer bei der Federal Communications Commission. David ist einer der führenden change agents in der US-Bundesregierung.

Hier sind bearbeitete Auszüge aus dem Gespräch. Lesen Sie das gesamte Transkript in der CXOTALK Website.

Was ist Datenschutz-engineering?

Michelle Dennedy: Privacy by Design ist ein politisches Konzept, das hing um für zehn Jahre in den Netzen und kommen aus Ontario, Kanada, mit einer Frau namens Ann Cavoukian, wer war der Kommissar in der Zeit von Ontario.

Aber im Jahr 2010 führten wir das Konzept der Daten-Kommissar die Konferenz in Jerusalem, und über 120 verschiedenen Ländern vereinbarten, wir sollten zu betrachten Datenschutz im Aufbau, in der Gestaltung. Das bedeutet, dass nicht nur die technischen tools, die Sie kaufen und konsumieren, [aber], wie Sie operationalisieren, wie Sie Ihr Geschäft betreiben; wie organisieren Sie rund um Ihr Unternehmen.

Und, um Geschäfte zu machen und auf meiner Seite der Welt -, Datenschutz-engineering ist mit den Techniken der technischen, der sozial -, der Verfahrens -, der Schulungs-tools, die wir zur Verfügung haben, und in der die meisten grundlegenden Sinn engineering zu sagen, «Was sind die routinized Systeme? Was sind die Rahmenbedingungen? Was sind die Techniken, die wir verwenden, zu mobilisieren datenschutzfreundlicher Technologien, die heute existieren, und der Blick über die Verarbeitung lifecycle zu bauen und zu lösen, Herausforderungen für die Privatsphäre?»

Und ich werde einen Doppelklick auf das Wort «Datenschutz». Die Privatsphäre, die in den funktionalen Sinn, der rechtmäßige Verarbeitung von personenbezogenen Daten, die mit faire, moralische, rechtliche und ethische standards. So, wir bringen jedes dieser Dinge und sagen, «Was sind die funktionalisierten Werkzeuge, die wir verwenden können, zu fördern, die ganze Palette und komplizierte Bewegung von persönlich identifizierbaren Informationen, die über Netzwerke mit all diesen anderen Faktoren eingebaut?» [Es ist], wenn ich ändern kann, der Stoff hier unten, und unsere teams bauen können Sie diese und machen Sie es so routinized und unsichtbar, dann ist der rest der Welt arbeiten können, die differenzierter Schichten, die sind auch schwierig und herausfordernd.

Wo hört die Privatsphäre Schnittmenge mit AI?

David Bray: Was sagte Michelle über den Bau hinaus und denken über die Netzwerke gelangt, wo wir heute, jetzt in 2017. Es geht nicht nur um einzelne Maschinen, Korrelationen; es geht darum, unterschiedliche Daten-feeds, streaming aus verschiedenen Netzwerken, in denen Sie vielleicht machen, ein Zusammenhang, den der einzelne hat keine Einwilligung gegeben, um mit […] persönlich identifizierbaren Informationen.

Für AI, es ist einfach irgendwie die nächste Schicht. Haben wir uns von einzelnen Rechnern, Netzwerken, jetzt haben wir etwas, die auf der Suche nach mustern, die auf eine beispiellose Fähigkeit, dass am Ende des Tages, es geht immer noch zurück auf das, was kommt, was der einzelne gegeben hat, die Zustimmung zu? Was ist übergeben, die von diesen Maschinen? Was sind diese Datenströme?

Eines der Dinge, die ich lernte, als ich in Australien war, sowie in Taiwan als Eisenhower Fellow; es ist eine Frage über, «Was können wir tun, um die Trennung von diesem Ambiente unserer Privatsphäre Berechtigungen, und was wollen wir mit unserer Daten, von wo die Daten gespeichert werden?» Denn jetzt, wir haben diese schlichteres Modell, «Wir co-lokalisieren auf der gleichen Plattform,» und dann vielleicht bekommen Sie die Endbenutzer-Vereinbarung, die die dreißig oder vierzig Seiten lang, und Sie müssen es nicht Lesen. Entweder akzeptieren, oder Sie akzeptieren Sie nicht, wenn Sie nicht akzeptieren, werden Sie nicht bekommen den service, und es gibt keine Möglichkeit zu sagen, «ich bin bereit, es in diesem Kontext, aber nicht in diesen Kontexten.» Und ich denke, das bedeutet, die Ki wird sich erhöhen, Fragen über den Kontext, wenn wir brauchen, um mit dieser Datenströme.

Wie wird der «Kontext» passen in diese?

Michelle Dennedy: Wir schrieben ein Buch vor ein paar Jahren als «Die Privatsphäre Ingenieur-Manifest» und im «Manifest» die Techniken, die wir verwendet werden, basieren auf wirklich grundlegende informatik.

Bevor wir nannten es «computer science», wir nennen es «Statistik und Mathematik.» Aber auch das denken über die geometrischen Beweis geschieht nichts ohne Kontext. Und ja, der Gedanke, dass Sie haben ein tool, das geeignet ist für alles, hat einfach noch nie gearbeitet in der Technik. Sie würde nicht eine Brücke bauen, die nur mit Nägeln und hämmern. Würden Sie nicht denken, über die etwas in den Dschungel gebaut wurde, dass die gleiche Weise wie eine Struktur, die Sie bauen würde in Arizona.

Also, Gedanken über Anwendungsfälle und zusammenhängen mit menschlichen Daten und erstellen von menschlichen Erfahrungen, das ist alles. Und es macht eine Menge Sinn. Wenn Sie darüber nachdenken, wie wir das geregelt vor allem in den USA, lassen wir die Banker aus für einen moment, denn Sie sind in verschiedenen Agenturen, aber die Federal Communications Commission die Federal Trade Commission; so denken wir über kommerzielle Interessen; wir denken über Kommunikation. Und Kommunikation ist sehr unvollkommen, warum? Weil es den Menschen all das zu kommunizieren!

Also, jedes mal, wenn Sie über etwas reden, das als menschliche und humane als die Verarbeitung von Informationen, beeinträchtigt das Leben und Kulturen-und Handelskammer von Menschen, die Sie gehen zu müssen, um wirklich über-drehen sich nach dem Kontext. Das bedeutet nicht, dass jeder bekommt eine Spezial-Sache, aber es bedeutet nicht, dass jeder bekommt ein Auto in jeder Farbe, die Sie wollen, so lange es schwarz ist.

David Bray: Und ich will verstärken, was Michelle sagt. Als ich ankam bei der FCC in spät 2013, wir zahlten für die Menschen zu Freiwilligen, was Ihre Breitband-Geschwindigkeiten wurden in bestimmten, ausgewählten Bereichen, weil wir sehen wollten, die Sie immer waren, der Breitband-Geschwindigkeit, die Sie versprochen wurden. Und das kostet die Regierung Geld, und es dauerte eine Menge Arbeit, und so sind wir effektiv wollten, um roll-up eine app, die ermöglichen könnte, die Menschen zu Crowdsourcing und wenn Sie wollte, sehen Sie, was Ihre Punktzahl wurde und teilen Sie es freiwillig mit den FCC. In der Erkenntnis, dass, wenn ich Stand auf und sagte, «Hallo! Ich bin mit der US-Regierung! Möchten Sie eine app haben, die […] für Ihre Breitband-Verbindung?» Vielleicht nicht ganz so erfolgreich.

Aber über die Prinzipien, die Sie sagte über Datenschutz-engineering und Datenschutz Entwurf, einer, haben wir die app open source, damit die Menschen könnten Blick auf den code werfen. Zwei, haben wir es so gemacht, dass, wenn wir den code, es nicht zu erfassen Ihre IP-Adresse, und er wusste nicht, wer Sie waren in einem fünf-Meilen-radius. Also gab es einige Unschärfen, um Ihre tatsächlichen, bestimmten Ort, aber es war immer noch gut genug für die Information, ob oder ob nicht die DSL-Geschwindigkeit ist, wie gewünscht.

Und sobald wir das getan haben; auch unsere Bedingungen waren nur zwei Seiten lang; die, wieder, ließen wir den Handschuh auf und sagte: «Wann war das Letzte mal, als Sie zugestimmt, alles auf dem internet, die war nur zwei Seiten lang ist?» Rollen, die sich, als Folge endete als die vierte am meisten heruntergeladenen app hinter Google Chrome, weil es Leute gab, schaute auf den code und sagte, «Ja, wahrlich, Sie haben privacy by design.»

Und so denke ich, dass dieses Prinzip von » privacy by design macht die Erkenntnis, dass eine, es ist nicht nur die Verschlüsselung, aber dann zwei, es ist nicht nur die rechtliche Hinweise. Können Sie etwas zeigen, das gibt den Menschen Vertrauen, dass das, was Sie tun mit Ihren Daten ist ausdrücklich das, was Sie Ihre Einwilligung erteilt haben? Für mich ist das, was benötigt wird für AI [denen] ist, können wir das tun, die gleiche Sache, die Ihnen zeigt, was geschieht mit Ihren Daten, und gibt Ihnen die Gelegenheit abzuwägen, ob Sie es wollen oder nicht?

Hat AI erfordert ein neues Niveau der Sicherheit von Informationen?

David Bray: Also, ich gebe die einfache Antwort ist «ja». Und jetzt werde ich darüber hinaus gehen.

Also, die Verlagerung zurück zum ersten, was Michelle gesagt, ich denke, es ist großartig zu packen, dass AI viele verschiedene Dinge. Es ist kein monolithisches Ding, und es lohnt sich zu entscheiden, reden wir einfach maschinelles lernen bei der Geschwindigkeit? Reden wir über neuronale Netzwerke? Dies ist wichtig, weil vor fünf Jahren, vor zehn Jahren, vor fünfzehn Jahren, die schiere Menge der Daten, die zur Verfügung Stand, Sie war nirgendwo nahe, was es jetzt ist, und geschweige denn, was es sein wird in fünf Jahren.

Wenn wir jetzt bei über 20 Milliarden vernetzte Geräte auf dem Gesicht des Planeten relativ zu 7,3 Milliarden Menschen, die Schätzungen liegen zwischen 75 und 300 Milliarden Geräte in weniger als fünf Jahren. Und so denke ich, dass wir beginnen, haben diese erhöhten Bedenken über die Ethik und die Sicherheit der Daten. Scott ‘ s Frage: weil es einfach einfach, wir sind Instrumentierung selbst, wir sind Instrumentierung, unsere Autos, unsere Körper, unsere Wohnungen, und dies wirft große Mengen von Fragen über das, was die Maschinen machen könnte, der diesen Datenstrom. Es ist auch nur die schiere Rechenleistung. Ich meine, die Fähigkeit zu tun, petaflops und jetzt exaflops und darüber hinaus, ich meine, das war gerade nicht anwesend, vor zehn Jahren.

Also, mit dieser sagte, die Frage der Sicherheit. Es ist die Sicherheit, aber auch möglicherweise brauchen wir ein neues Wort. Ich habe gehört, in Skandinavien, Sie reden über Integrität und integral. Es ist wirklich über die Integrität der Daten: Haben Sie eine Einwilligung erteilt zu haben, es verwendet für einen bestimmten Zweck? So, ich denke, dass AI eine Rolle spielen könnte, im Sinn von, ob die Daten sicher verarbeitet.

Denn die Herausforderung ist jetzt, für die meisten der Verarbeitung, die wir haben, zu entschlüsseln, es an irgendeinem Punkt zu beginnen, den Sinn und re-verschlüsseln Sie es erneut. Aber auch, wird Sie behandelt mit Integrität und integraler Bestandteil der einzelnen? Hat die individuelle Einwilligung gegeben?

Und so, eines der Dinge, die ausgelöst wird, wenn ich in Gesprächen in Taiwan ist die Frage, «Nun, könnten wir nicht einfach einen open-source-AI, wo geben wir unser wissen und unsere Zustimmung zu der KI zu haben, die unsere Daten für bestimmte Zwecke verwendet werden?» Zum Beispiel könnte es sagen, «Okay, gut, ich verstehe, Sie haben einen Datensatz, serviert mit dieser Plattform, diese andere Plattform hier, und dieser Plattform hier. Sind Sie bereit, dass Daten zusammengeführt werden, um zu verbessern Ihr Haushalt?» Und Sie könnte «Nein» sagen. Er sagt, «Okay. Aber wären Sie bereit, es zu tun, wenn Ihre Herzfrequenz unter einen bestimmten Grenzwert fällt, und Sie sind in einem Autounfall?» Und man könnte sagen «ja».

Und so, nur so, ich denke, dass wir, könnte jemals möglicherweise Zusammenhang nicht hinunter eine Reihe von Checklisten und versucht zu prüfen, alle möglichen Szenarien. Es ist zu haben, um eine Maschine, die mit uns sprechen und Gespräche über das, was wir tun und wollen jetzt getan haben, mit unseren Daten.

Was ist mit den Risiken zu schaffen bias in AI?

Michelle Dennedy: Madeleine Clare Elish schrieb ein Papier namens «Moralischen Knautschzonen,» und ich Liebe einfach auch die Optik. Wenn Sie denken über Autos und was wissen wir über die Menschen Autos fahren, Sie zerschlagen sich gegenseitig in bestimmten bekannten Wege. Und die Art und Weise, die wir bekommen haben, besser und senkte Todesfälle bekannt Autounfällen ist mit Hilfe von Physik und geometrie zu entwerfen, einen Hohlraum, in den verschiedenen teilen des Autos, wo es nichts gibt, das wird explodieren oder Feuer fangen, etc.. als eine Wirkung der Knautschzone. Also alle die Kraft und die Energie geht Weg von der PKW-in die physische Knautschzone des Autos.

Madeleine arbeitet auf genau das, was wir reden. Wir wissen nicht, Wann es Unbewusste oder unbeabsichtigte Voreingenommenheit, weil es Unbewusste oder unbeabsichtigte Voreingenommenheit. Aber, können wir design-in-ethischen Knautschzonen, wo wir Dinge wie Tests für die Fütterung, so wie wir es tun mit sandboxing oder wir machen mit dummy-Daten, bevor wir live gehen, die in anderen Arten von IT-Systemen. Wir können entscheiden, zu verwenden AI-Technologie, und fügen Sie in die bekannten Probleme mit der Umschulung, dass die Datenbank.

Ich gebe Ihnen Watson als Beispiel. Watson ist nicht eine Sache. Watson ist eine Marke. Die Weise, in der Watson-computer-beat Jeopardy Kandidaten ist durch das lernen mit Wikipedia. So, durch die Verarbeitung von großen Mengen der angegebenen Daten, Sie wissen, auf welcher Ebene der Authentizität, die Muster auf.

Was Watson nicht tun kann, ist selektiv vergessen. So, Ihr Gehirn und Ihr neuronales Netzwerk sind besser auf die Daten vergessen und ignorieren von Daten, als es für die Verarbeitung von Daten. Wir versuchen, unsere computer zu simulieren, ein Gehirn, mit der Ausnahme, dass Gehirne sind gut im vergessen. AI ist nicht gut, dass noch. So können Sie die Steuer-code, die füllen würde, drei Ballsäle, wenn Sie Sie auf Papier ausdrucken. Sie füttern es in einem AI-Typ von Datensatz, und Sie können trainieren Sie in was sind die bekannten Mengen von Geld, das jemand bezahlen soll, in einem bestimmten Kontext?

Was Sie nicht tun können, und was ich denke, wäre faszinierend, wenn wir es tun, wenn wir uns könnte streiten die Daten aller cheater. Was sind die häufigsten cheats??? Wie wir betrügen? Und wir wissen, diejenigen, die gefangen werden, aber noch wichtiger ist, wie […] erwischt? Das sind die Dinge, wo ich denke, Sie brauchen, um design in eine moralische und ethische Knautschzone und sagen, «Wie Menschen aktiv nutzen, die Systeme?»

Das Konzept der den Geist in der Maschine: wie machen Maschinen, die sind gut ausgebildet, mit Daten, die über Erfahrung im Abbau? Entweder sind Sie nicht das ziehen von Datensätzen, weil die Ausrüstung ist einfach … Sie wissen, Sie sind nicht Lesen, Band-Laufwerke mehr, oder es ist nicht gefüttert von frischen Daten, oder wir sind nicht zum löschen Alter Daten. Es gibt eine Menge von verschiedenen Techniken, die hier, glaube ich, noch skaliert bereitgestellt werden, dass ich denke, dass wir berücksichtigen müssen, bevor wir sind übermäßig angewiesen [AI], die ohne menschliche Kontrolle, und verarbeitet checks and balances.

Wie lösen wir das bias-problem?

David Bray: ich denke, es ist zu haben, um ein abgestuftes Konzept. Als Ausgangspunkt braucht man schon fast um das äquivalent eines menschlichen Bürgerbeauftragte — eine Reihe von Menschen auf der Suche an, was die Maschine tut, relativ zu den Daten gespeist wurde.

Und Sie können dies tun, in mehreren Kontexten. Es könnte nur intern für die Firma, und es ist einfach sicherzustellen, dass das, was die Maschine gefüttert wird, ist nicht die führende it-Entscheidungen, die sind grauenhaft oder fehlerhaft.

Oder, wenn Sie wollen, um zu gewinnen das Vertrauen der öffentlichkeit, einige der Daten, und teilen einige der Ergebnisse, sondern Abstrakt für alles, was im Zusammenhang mit einem einzelnen, und einfach sagen, «Diese Arten von Personen angewendet, die für Kredite. Diese Arten der Kredite, die vergeben wurden,» so sicherstellen kann, dass der Computer nicht herunterzufahren, auf einige der Vorurteile, die wir nicht kennen.

Längerfristige, aber Sie haben zu schreiben, dass Bürgerbeauftragten. Wir müssen in der Lage sein, um Ingenieur eine KI zu dienen, wie ein Ombudsmann für die KI selbst.

Also wirklich, was würde ich sehen, nicht nur AI als nur einem monolithischen system, es kann einer sein, der die Entscheidungen zu treffen, und dann ein anderes, das als Jiminy Cricket, der sagt, «Das ergibt keinen Sinn. Diese Leute betrügen,» und es zeigt jene Menschen, Fehler im system, wie gut. So, wir müssen das äquivalent eines Jiminy Cricket für AI.

CXOTALK bringt Sie die weltweit innovativsten Unternehmer, Autoren, Analysten und für eine ausführliche Diskussion, die nicht verfügbar überall sonst. Genießen Sie alle unsere Episoden und laden Sie den podcast bei iTunes und Spreaker.