De kunstmatige intelligentie en de privacy engineering: Waarom het van belang is NU

0
11

Als de kunstmatige intelligentie zich sneller uitbreidt, bedrijven en overheden zijn het aggregeren van enorme gegevenssets te voeden hun AI-initiatieven.

Hoewel privacy is niet een nieuw concept in de berekening van de groei van geaggregeerde gegevens vergroot de privacy van uitdagingen en leidt tot extreme ethische risico ‘ s, zoals per ongeluk gebouw bevooroordeeld AI-systemen, onder vele anderen.

Privacy en kunstmatige intelligentie zijn beide complexe onderwerpen. Er zijn geen gemakkelijke of eenvoudige antwoorden, omdat oplossingen liggen op de veranderende en conflicterende snijpunt van technologie, commerciële winst, de openbare orde, en zelfs individuele en culturele opvattingen.

Gegeven deze complexiteit, nodigde ik twee briljante mensen delen hun gedachten in een CXOTALK gesprek op privacy en AI. Bekijk de video hierboven om te participeren in de hele discussie, dat was Aflevering 229 van CXOTALK.

Michelle Dennedy is de Chief Privacy Officer van Cisco. Ze is een advocaat, auteur van het boek De Privacy Engineer ‘ s Manifesto, en één van de meest toonaangevende experts op privacy engineering.

David Bray is Chief Ventures Officer bij het National Geospatial-Intelligence Agency. Voorheen was hij een van Eisenhower Collega en Chief Information Officer bij de Federal Communications Commission. David is één van de belangrijkste agenten voor verandering in de AMERIKAANSE federale overheid.

Hier zijn bewerkte fragmenten uit het gesprek. Lees je het hele transcript op de CXOTALK site.

Wat is privacy engineering?

Michelle Dennedy: Privacy by Design is een beleidsconcept dat was opknoping rond voor tien jaar in de netwerken en afkomstig uit Ontario, Canada met een vrouw genaamd Ann Cavoukian, die de commissaris op het moment van Ontario.

Maar in 2010 introduceerden we het concept in de Gegevens Commissaris Conferentie in Jeruzalem, en meer dan 120 verschillende landen overeengekomen we moeten nadenken over privacy in het bouwen, in het ontwerp. Dat betekent dat niet alleen de technische tools die u kopen en consumeren, [maar] hoe je operationaliseren, hoe u uw bedrijf; hoe organiseert u rondom uw bedrijf.

En, om neer aan zaken te worden aan mijn kant van de wereld, privacy engineering is met behulp van de technieken van de technische, de sociale, de procedures, de training tools die we beschikbaar hebben, en in de meest elementaire zin van engineering om te zeggen, “Wat zijn de geroutineerde systemen? Wat zijn de kaders? Wat zijn de technieken die we gebruiken voor het mobiliseren van privacy-enhancing technologieën die vandaag de dag bestaan, en kijken over de verwerking van de levenscyclus in te bouwen en op te lossen voor de privacy van uitdagingen?”

En ik zal je dubbel-klikt op het woord ‘privacy’. Privacy in de functionele zin, is het toegestaan de verwerking van persoonlijk identificeerbare gegevens met behulp van reële, morele, juridische en ethische normen. Dus, we brengen elk één van die dingen en zeggen, “Wat zijn de gefunctionaliseerde tools die we kunnen gebruiken om te bevorderen dat de hele arsenaal en ingewikkelde beweging van persoonlijk identificeerbare informatie over netwerken met al deze andere factoren ingebouwd in?” [Het is] als ik kan voor u de stof naar beneden hier, en onze teams kunnen bouwen en maken het als een geroutineerde en onzichtbaar, dan de rest van de wereld kunt werken op de meer genuanceerde lagen die zijn ook moeilijk en uitdagend.

Waar komt de privacy kruisen met AI?

David Bray: Wat Michelle zei over het bouwen van buiten en het denken over netwerken wordt naar waar we vandaag de dag, nu in 2017. Het gaat niet alleen om individuele machines het maken van correlaties; het gaat over verschillende data feeds streaming van verschillende netwerken waar zou je een correlatie dat het individu niet gegeven toestemming om met […] persoonlijk identificeerbare informatie.

AI, het is een soort van de volgende laag. We zijn gegaan van de individuele machines, netwerken, nu hebben we iets dat op zoek is naar patronen in een ongekend vermogen, dat aan het eind van de dag, het gaat nog steeds terug naar wat komen van wat het individu heeft toestemming gegeven voor? Wat wordt overgedragen door die machines? Wat zijn die gegevensstromen?

Een van de dingen die ik leerde toen ik in Australië was evenals in Taiwan als een Eisenhower Collega; het is een vraag over “Wat kunnen we doen om deze instelling van onze privacy rechten en wat we willen worden gedaan met onze gegevens, van waar de data opgeslagen is?” Want nu hebben we deze meer simplistische model van, “We co-locatie op hetzelfde platform,” en dan misschien krijg je een gebruiksrechtovereenkomst die dertig of veertig pagina ‘ s lang, en je hoeft je niet te lezen. Ofwel accepteren, of je hebt het niet accepteren; als je niet akkoord gaat, zal je niet voor de service, en er is geen gelegenheid om te zeggen, “ik ben bereid om het te hebben gebruikt in deze context, maar niet in deze context.” En ik denk dat betekent Ai gaat om vragen over de context van wanneer we moeten beginnen met behulp van deze data.

Hoe werkt de “context”, passen in deze?

Michelle Dennedy: We schreven een boek een paar jaar geleden de naam “De Privacy-Ingenieur Manifest,” en in het manifest, de technieken die we hebben gebruikt zijn gebaseerd op de werkelijk fundamentele informatica.

Voordat we noemen het de “computer science” we noemen het “statistiek en wiskunde.” Maar zelfs het denken over geometrische bewijs, dat er niets gebeurt zonder context. En dus, de gedachte die je hebt een tool die geschikt is voor alles heeft gewoon nooit gewerkt in de techniek. Je zou het niet bouwen van een brug met slechts nagels en geen gebruik maken van hamers. Je zou het niet denken over het zetten van iets in de jungle, dat was op dezelfde manier gebouwd als een structuur die u zou bouwen in Arizona.

Dus, na te denken over use-cases en contexten met gegevens over de mens, en het creëren van menselijke ervaringen, is alles. En het maakt veel zin. Als je nadenkt over hoe we het geregeld, voornamelijk in de VS, laten we de bankiers uit voor een moment omdat ze verschillende instanties, maar de Federal Communications Commission, de amerikaanse Federal Trade Commission; dus, we denken over commerciële belangen; we denken over communicatie. En communicatie is wild onvolmaakte waarom? Want het is de mens het doen van alle communicatie.

Dus, elke keer dat u praat over iets dat is menselijk en humaan als het verwerken van informatie die van invloed is op het leven en van de cultuur en handel van mensen, je gaat te hebben om echt te draai op de context. Dat betekent niet dat iedereen krijgt een speciale dingen, maar dat betekent niet dat iedereen krijgt een auto in een kleur die ze willen, zolang het maar zwart is.

David Bray: En ik wil versterken wat Michelle zegt. Toen ik aankwam bij de FCC eind 2013, waren we betalen voor mensen om vrijwilligerswerk te doen wat hun breedband-snelheden in bepaalde gebieden selecteren, want we wilden om te zien dat ze krijgen van de snelheid van de breedbandverbinding dat hen is beloofd. En dat kost de overheid geld, en het kostte veel werk, en dus hebben we effectief wilde roll-up een app die kan leiden mensen te crowdsourcen en, als ze willen, wat hun score was en deel het vrijwillig bij de FCC. Erkennen dat, als ik stond op en zei: “Hi! Ik ben met de AMERIKAANSE overheid! Zou je graag een app […] voor je breedband internet verbinding?”. Misschien niet zo succesvol.

Maar met behulp van de principes die je zei over privacy engineering en privacy design, one, hebben we de app open source, zodat mensen kunnen kijken naar de code. Twee, we hebben het zo dat, bij het ontwerpen van de code, het niet vastleggen van uw IP-adres, en hij wist niet wie je was in een vijf-mijl straal. Dus, het gaf een aantal vaagheid te houden met uw specifieke locatie, maar het was nog steeds goed genoeg voor het informeren van of het wel of niet breedband snelheid is zoals gewenst.

En zodra dat deden we ook onze voorwaarden zijn slechts twee pagina ‘ s lang; die, nogmaals, we lieten de handschoen op en zei: “Wanneer was de laatste keer dat u akkoord bent gegaan om alles wat op internet dat was slechts twee pagina’ s lang?” Rolling dat uit, met als resultaat dat uiteindelijk de vierde plaats van de meest gedownloade app achter Google Chrome omdat er mensen waren die keken naar de code en zei: “Ja, waarlijk, zij hebben privacy by design.”

En dus, ik denk dat dit principe van ” privacy by design is het maken van de erkenning dat men het niet alleen de codering, maar dan twee, het is niet alleen het juridisch jargon. Kunt u iets tonen dat geeft mensen vertrouwen; dat wat je doet met hun gegevens wordt uitdrukkelijk van wat ze hebben toestemming gegeven voor? Dat is, voor mij, wat nodig is voor het AI [die] is, kunnen we die hetzelfde doen wat je laat zien wat er gebeurt met uw gegevens en geeft u een kans om te wegen op de vraag of je wil of niet?

Heeft AI een nieuw niveau van informatiebeveiliging?

David Bray: Dus, ik geef het eenvoudige antwoord is “Ja”. En nu ga ik verder dan dat.

Dus, het verschuiven terug naar het eerste wat Michelle zei, ik vind het geweldig om uit te pakken dat de AI is veel verschillende dingen. Het is geen monolithisch ding, en het is de moeite waard te beslissen hebben we het over gewoon ‘machine learning’ op snelheid? Hebben we het over neurale netwerken? Dit is van belang, want vijf jaar geleden, tien jaar geleden, vijftien jaar geleden, de enorme hoeveelheid gegevens die beschikbaar was nergens in de buurt van wat het nu is, en laat staan wat het zal worden in vijf jaar.

Als we nu op ongeveer 20 miljard genetwerkte apparaten op het gezicht van de planeet ten opzichte van 7,3 miljard menselijke wezens zijn schattingen van tussen de 75 en 300 miljard apparaten in minder dan vijf jaar. En dus, ik denk dat we begin deze verhoogde bezorgdheid over de ethiek en de beveiliging van de gegevens. Scott vraag: omdat het gewoon we zijn instrumenting onszelf, we zijn instrumenting onze auto ‘ s, onze lichamen, onze huizen, en dit brengt enorme bedragen vragen over wat de machines kunnen maken van deze data stream. Het is ook gewoon de pure verwerking mogelijk te maken. Ik bedoel, het vermogen om petaflops en nu exaflops en dan, ik bedoel, dat was gewoon niet aanwezig tien jaar geleden.

Dus met dat gezegd, de vraag van de veiligheid. Het is de veiligheid, maar ook kunnen we een nieuw woord nodig hebben. Ik hoorde in Scandinavië, ze praten over integriteit en integraal. Het is echt over de integriteit van die gegevens: Hebt u toestemming gegeven voor het hebben van het gebruiken voor een bepaald doel? Dus, ik denk dat AI een rol zou kunnen spelen in het maken van zin of gegevens veilig verwerkt.

Omdat het hele uitdaging is nu, voor de meeste van de verwerking die wij hebben te decoderen op een bepaald punt te beginnen met een gevoel van het maken en opnieuw coderen van het weer. Maar ook, is het behandeld wordt met integriteit en integraal aan de individuele? Heeft de individuele toestemming gegeven?

En dus een van de dingen die aan de orde toen was ik in gesprekken in Taiwan is de vraag “kunnen we het niet gewoon een open-source AI, waar we geven onze toestemming en onze toestemming de AI dat onze gegevens gebruikt worden voor bepaalde doeleinden?” Het kan bijvoorbeeld zeggen, “Oké, ik begrijp u hebt een gegevens set geserveerd met dit platform, dat andere platform over hier, en dit platform hier. Bent u bereid om die gegevens bij elkaar worden gebracht om het verbeteren van uw huishouden?” En je zou kunnen zeggen: “nee.” Hij zegt, “Ok. Maar zou u bereid om het te doen als uw hartslag daalt onder een bepaald niveau en je bent in een auto-ongeval?” En je zou kunnen zeggen “ja.”

En dus, de enige manier waarop ik denk dat we dat ooit zou kunnen doen context is niet van plan een reeks checklists en proberen om alle mogelijke scenario ‘ s. Het gaat om een machine die kan praten en gesprekken over wat we doen en we doen nu gedaan wilt hebben met onze gegevens.

Hoe zit het met de risico ‘ s van het maken van bias in de AI?

Michelle Dennedy: Madeleine Clare Elish schreef een paper genaamd “Morele kreukelzones,” en ik hou gewoon van zelfs de visuele. Als u denkt over auto ‘ s en wat weten we over de mensen die auto rijden, ze breken in elkaar over in een bepaalde bekende manieren. En de weg die we hebben gekregen beter en verlaagd de dodelijke slachtoffers van de bekende auto-ongevallen is het gebruik van de fysica en de geometrie van het ontwerpen van een holte in verschillende delen van de auto waar er niets is, dat gaat ontploffen of in brand, enz. als een effect kreukelzone. Dus allemaal de kracht en de energie gaat weg van de passagier en in de fysieke kreukelzone van de auto.

Madeleine werkt op precies waar we het over hebben. We weten niet wanneer het onbewuste of onbedoelde afwijking omdat het onbewuste of onbedoelde afwijking. Maar, we kunnen het ontwerp-ethische kreukelzones, waar we dingen willen testen voor het voeden, net zoals we dat doen met sandboxing of we doen met dummy data voordat we live gaan in andere vormen van IT-systemen. We kunnen besluiten gebruik te maken van AI-technologie en voeg het toe in bekende problemen voor de omscholing van de database.

Ik geef je Watson als een voorbeeld. Watson is niet een ding. Watson is een merk. De manier waarop de Watson computer verslaan Gevaar deelnemers is door het leren van Wikipedia. Dus, door het verwerken van grote hoeveelheden gegevens vermeld, weet je, gegeven welke niveaus van authenticiteit die patroon op.

Wat Watson niet kan doen is selectief vergeten. Dus, je hersenen en neurale netwerken zijn beter in het vergeten van gegevens en het negeren van gegevens, dan is het voor de verwerking van de gegevens. We proberen te maken van onze computer simuleren van een brein, behalve dat de hersenen zijn goed in het vergeten. De AI is niet goed in te zijn, maar toch. Zo kunt u de btw-code, die zou vullen drie zalen als u print het uit op papier. U kunt de feed in een AI-type van de dataset, en je kan trainen in wat zijn de bekende hoeveelheden geld die iemand moet betalen in een gegeven context?

Wat je niet kan doen, en wat ik denk dat zou fascinerend zijn als we iets doen, is als we stoeien met de gegevens van alle bedriegers. Wat zijn de meest voorkomende cheats? Hoe doen we bedriegen? En wij kennen degenen die gepakt wordt, maar nog belangrijker, hoe […] gepakt? Dat is het spul waar ik denk dat u nodig hebt om het ontwerp in een morele en ethische kreukelzone en zeggen, “Hoe doen mensen actief gebruik te maken van systemen?”

Het concept van de geest in de machine: hoe machines die goed zijn opgeleid met gegevens over tijd ervaring degradatie? Of ze zijn niet te trekken uit datasets omdat de apparatuur is gewoon … Je weet, zijn ze niet lezen tapedrives meer, of het is niet gevoed wordt van nieuwe gegevens, of we zijn het niet verwijderen van oude gegevens. Er zijn veel verschillende technieken hier dat ik denk dat nog moet worden ingezet op schaal, dat ik denk dat we moeten overwegen voordat we overdreven vertrouwen [AI], zonder menselijke checks and balances en verwerkt checks and balances.

Hoe lossen we dit vooroordeel probleem?

David Bray: ik denk dat het gaat om een gefaseerde aanpak. Als een uitgangspunt, dat je bijna moet het equivalent van een menselijke ombudsman – een reeks van mensen op zoek naar wat de machine doet het in vergelijking met de gegevens die zijn ingevoerd.

En u kunt dit doen in meerdere contexten. Het zou zomaar kunnen zijn voor intern gebruik binnen het bedrijf, en het is gewoon om ervoor te zorgen dat de machine wordt gevoerd is niet leidt tot beslissingen die zijn afschuwelijk of onjuist.

Of, als je wilt winnen het vertrouwen van het publiek, een deel van de gegevens, en een deel van de uitkomsten, maar een abstract iets dat verbonden is met een bepaalde persoon en gewoon zeggen, “Dit soort mensen toegepast voor leningen. Deze types van leningen werden toegekend,” zo kan ervoor zorgen dat de machine niet wordt scharnieren op een aantal vooroordelen die we niet kennen.

Op de langere termijn, hoewel, je hebt om te schrijven dat de ombudsman. We moeten in staat zijn om ingenieur een AI om te dienen als een ombudsman voor de AI zelf.

Dus echt, wat ik zie is niet alleen AI als één monolithisch systeem, kan degene die de beslissingen, en dan nog die dienen als de Jiminy Cricket dat zegt, “Dit heeft geen zin. Deze mensen zijn bedrog”, en is te wijzen op deze gebreken in het systeem. Wij moeten dus het equivalent van een Jiminy Cricket voor AI.

CXOTALK brengt u ‘ s werelds meest innovatieve zakelijke leiders, schrijvers en analisten voor in-diepte bespreking niet beschikbaar zijn ergens anders. Geniet van al onze afleveringen en download de podcast via iTunes en Spreaker.