Videnskab
 science >> Videnskab >  >> Elektronik

Hvordan værdidrevet kunstig intelligens kan omforme den måde, vi kommunikerer på

Kredit:Yale University Press

Mike Ananny gik tur med sin hund i morges. Han gjorde det uden forventning om privatliv.

"Jeg ved, at jeg var udsat for en bred vifte af kameraer, hvad enten det var ringeklokker, biler, der kørte langs, eller endda bytrafikkameraer," sagde han. "Jeg valgte ikke at deltage i hele denne række af videoovervågningssystemer. Jeg tog bare min hund en tur."

Ananny forstår, at hvor end han går, bliver data om ham indsamlet, analyseret og indtægtsført af kunstig intelligens (AI).

Kate Crawford kørte en varevogn dybt ind i det tørre Nevada-landskab for at få et godt kig på de fordampende saltvandsdamme i Silver Peak Lithium Mine.

Disse øde skår af væske er ikke kun den største amerikanske kilde til lithium – det metal, der er essentielt for batterierne, der driver alt fra bærbare computere til mobile enheder til elbiler – de er også en levende påmindelse om den indflydelse AI har på den materielle verden .

"Metaforer, som folk bruger til at tale om kunstig intelligens som 'skyen', indebærer noget flydende og abstrakt," sagde Crawford. "Men beregninger i stor skala har et enormt CO2-fodaftryk og miljøpåvirkning."

Crawford ved, at verdens systemer, energi, minedrift, arbejdskraft og politiske magt bliver omskrevet af AIs behov.

Da COVID-19-pandemien startede, vidste Ashley Alvarado, at hendes stations lyttere var bange og forvirrede.

Hos KPCC-FM og LAist har Alvarado brugt en række forskellige kommunikationsværktøjer til at komme i kontakt med publikum, men omfanget af de kommentarer, spørgsmål og tips, som stationen modtog, krævede en løsning, der kunne behandle store mængder data hurtigt.

"Med COVID var der så meget behov for information i begyndelsen af ​​pandemien, at den måde, vi kunne være mest menneskelige for Angelenos, var ved at udnytte AI," sagde Alvarado.

Kendt under mange navne – algoritmer, bots, big data, naturlig sprogbehandling, maskinlæring, intelligente agenter – teknologier, der falder ind under den brede definition af AI, omformer ikke kun kommunikationsverdenen, men verden som helhed. På tværs af USC Annenberg udforsker fakultetet, studerende og alumner både det enorme potentiale og de ofte mindre indlysende faldgruber, som disse teknologier præsenterer.

"Annenberg er unikt positioneret til at lede denne samtale, fordi disse er socio-tekniske og kommunikationsproblemer," sagde Ananny. "Jeg ønsker ikke, at vores svar på disse spørgsmål kun skal være tekniske. Jeg vil have et svar, der er dybt historisk og forankret i kulturel forståelse."

Søgetermer

I den populære fantasi kan kunstig intelligens betyde alt fra den praktiske bekvemmelighed, at din telefon vælger sange, som den ved, at du måske kan lide, eller fortæller dig den bedste vej til din vens hus, eller løftet om big-data universalmiddel til problemer som klimaændringer eller Covid19-pandemi. Det er også næsten umuligt at diskutere AI uden at referere til, hvor ofte AI bliver castet som science fiction-skurken:forbuddet mod "tænkemaskiner" i Frank Herberts Dune, HAL 9000 i Arthur C. Clarkes 2001:A Space Odyssey, the Borg in Star Trek, Agent Smith i The Matrix.

"Jeg tror, ​​de fleste har en tendens til at tænke på det som denne slags sci-fi-teknologi fra Terminator eller Ready Player One," sagde Fred Cook, direktør for Center for Public Relations. "I virkeligheden er det motoren bag mange af de ting, som folk, især i PR-branchen, allerede bruger i deres daglige arbejde."

For at forenkle det, så kommer det meste af det, der almindeligvis opfattes som kunstig intelligens, ned på samspillet mellem algoritmer – matematiske funktioner – der foretager beregninger baseret på enorme mængder data.

"Algorithmer er instruktionerne og reglerne, der styrer computing," sagde Marlon Twyman II, der forsker i, hvordan teknologi former interaktionen mellem individer og teams på arbejdspladsen. "Kunstig intelligens skal have algoritmer, der understøtter de beslutninger og engagementer, den træffer."

Twyman nævner eksemplet med billedgenkendelse:AI, der forsøger at opdage, om et billede af en kat er en kat eller en hund. Jo flere eksempler algoritmerne udsættes for - jo flere data - jo bedre er de i stand til at foretage disse bestemmelser.

"Kunstig intelligens er, når computere begynder at være i stand til at reagere på input, som de ikke nødvendigvis blev trænet i - eller udsat for - da de blev programmeret," sagde Twyman, assisterende professor i kommunikation.

"Det, vi interagerer med, er bare matematik," sagde Ignacio Cruz, som fik sin ph.d. i kommunikation i 2021 og underviser nu på Northwestern University. Han understreger, at på trods af AI's evner til at genkende trends og mønstre, er det ikke så mystisk. Teknologi, der har, hvis ikke sans, så i det mindste et eller andet uafhængigt bureau – eller hvad Cruz kalder "agentiske kvaliteter" – er foreløbig i høj grad sci-fi-ting.

"Algorithmer fungerer ikke, som den menneskelige hjerne fungerer," bemærkede Lynn Miller, professor i kommunikation. "AI er egentlig bare en forudsigelsesmaskine."

Sådanne maskiner giver mulighed for bemærkelsesværdige teknologiske resultater inden for sundhedspleje, logistik, spil, underholdning, strafferet, ansættelse og mange andre områder – inklusive lokal journalistik – på uventede måder.

AI og fællesskab

KPCC-FM forventede ikke at bruge kunstig intelligens til at opbygge samfundsengagement, men da pandemien ramte i 2020, og de begyndte at blive oversvømmet med paniske beskeder om nedlukningen, vidste den Pasadena-baserede offentlige radiostations ledelse, at de var nødt til at gøre noget for at hjælpe deres lyttere.

"Det startede med bare bekymring," sagde Alvarado. "Og så gik det i bare fuldgyldig panik - spørgsmål om mangel på Target, om man skulle aflyse et bryllup, om det var ulovligt at samles med sine kære for at sørge over nogen."

De fleste af disse spørgsmål kom gennem et værktøj, som radiostationen havde indlejret på sin hjemmeside, der bruger Hearken, en platform for engagement og organisatorisk støtte. "Vi fik nogle gange 10 beskeder i minuttet gennem dette værktøj," sagde Alvarado, vicepræsident for samfundsengagement og strategiske initiativer for KPCC-FM og LAist. "Vi var nødt til at tænke kreativt over, hvordan vi kunne imødekomme informationsbehovet hos tusinder og atter tusinder af mennesker."

Hun talte med Paul Cheung, daværende direktør for journalistik og teknologiinnovation ved John S. and James L. Knight Foundation, som spurgte, om hun havde tænkt på maskinlæring. "Og det havde jeg ikke," sagde hun med et grin. Cheung forbandt dem med nogle journalister, der arbejdede med kunstig intelligens på onlinepublikationen Quartz, og de hjalp Alvarado og hendes team med at udvikle et naturligt sprogbehandlingsværktøj, der kunne analysere de anmodninger, de modtog fra lyttere.

"Med værktøjet kunne vi identificere temaer, vi skulle fokusere på - ikke kun for at besvare spørgsmål, men for hvilke historier vi skulle dække og hvor," sagde Alvarado, der fik sin BA i 2005 med en dobbelt hovedfag i trykt journalistik og spansk .

Alvarado ser et stort potentiale for denne teknologi til at muliggøre input fra publikum til overflademønstre fra andre hurtige nyhedsbegivenheder fra naturbrande til politiske debatter. "Normalt ville du skulle læse hvert spørgsmål igennem, mens det kom ind, og håbe, at du observerede en tendens, i modsætning til at have AI'en på plads for at sige:"Her er noget, der dukker op igen og igen."

Nogle publikationer bruger allerede AI direkte til at skrive historier, normalt grundlæggende, let formaterede stykker som aktierapporter, vejrbulletiner og sportshistorier. Selvom disse stykker ender med at redde en eller anden journalist på begynderniveau fra udenadsarbejde, ser Twyman en potentiel ulempe.

"Problemet er, at dette fjerner muligheden for at innovere, selv i disse simple opgaver," sagde han. "Hvis vi bliver ved med at fjerne mennesker fra flere og mere komplekse skriveopgaver, kan vi ende i en verden, der ser meget anderledes ud."

Agenter med bureau

Nogle gange er det nødvendigt at fjerne mennesker fra ligningen for deres sikkerhed. I sin forskning i risikofyldt seksuel aktivitet for mere end 25 år siden stødte Miller ind i et meget grundlæggende – og meget menneskeligt – problem. "Jeg var interesseret i seksuel adfærd blandt unge mænd, der har sex med mænd," sagde hun. "Jeg lavede en masse kvalitativt arbejde med, hvad der førte til disse risikomomenter, men jeg kunne åbenbart ikke gemme mig under senge for at finde ud af, hvad der foregik. Det var da, jeg begyndte at interessere mig for at skabe virtuelle miljøer."

Miller ønskede at skabe et interaktivt spil, hvor menneskelige forsøgspersoner kunne træffe beslutninger om, hvorvidt de ville deltage i risikabel seksuel adfærd, men hun var begrænset af den teknologi, hun havde til rådighed, til at skabe scriptede situationer.

Svaret var et virtuelt miljø befolket af "intelligente agenter", karakterer, hvis adfærd var styret af algoritmer, der satte deres præferencer og mål – med andre ord AI – snarere end af faste scripts. I samarbejde med et team af USC dataloger og psykologer udviklede Miller karakterer, hvis adfærd var repræsentativ for mennesker i det virkelige liv. Disse karakterer befolkede en virtuel verden og kunne interagere med menneskelige forskningsemner på mere naturlige måder, der rent faktisk ville give brugbare forskningsdata om risikabel seksuel adfærd uden risiko.

"Du kan have et menneske i løkken, som reagerer på, hvad den intelligente agent gør, som så former dens adfærd, eller du kan få alle agenter til at interagere og køre simuleringer," sagde Miller. Hendes arbejde hjalp med at identificere ikke kun mønstre for risikabel adfærd, men også måder til effektivt at gribe ind og mindske denne risiko.

I sin prisvindende forskning i løbet af det sidste halvandet årti, der har bygget på de originale virtuelle miljøer, har Miller og hendes team også lært, hvilke former for interventioner der virker bedst for at begrænse risikoen i seksuelle situationer - hvoraf ingen ville have været mulige uden AI.

Hendes nyere arbejde har bevæget sig ind i neurovidenskabens område, ved at bruge disse intelligente midler til at modellere mere komplekse menneskelige processer, såsom kommunikationskompetence og hvordan mennesker skaber mening gennem social interaktion.

"Et af problemerne med den nuværende AI generelt er, at den kun kan komme op til et vist punkt i forhold til at kunne udlede følelser," sagde Miller. "Når det er sagt, er der visse sandsynligheder og parametre, vi kan programmere ind i vores intelligente agenter, når det kommer til social interaktion, som faktisk gør et ret godt stykke arbejde med at modellere, hvordan faktiske mennesker, i et meget interaktivt og fleksibelt miljø, vil træffe beslutninger."

Mens fremtiden for AI er svær at forudsige, sagde Miller, at banebrydende AI-forskere allerede forsøger at udnytte, hvordan menneskelige hjerner forstår verden. "Som med enhver nyskabelse er der risici, der skal afbødes," bemærkede Miller. "Men der er også enorme muligheder for at forbedre interventioner og terapier for dramatisk at forbedre kommunikationen og individuelt og samfundsmæssigt velvære."

Parsing polarisation

Som Miller påpeger, er en af ​​styrkerne ved AI at finde mønstre blandt enorme datasæt. Fred Cook ønskede at tage et særligt omstridt datasæt – opslag på sociale medier om kontroversielle politiske spørgsmål – og finde ud af, om AI kunne hjælpe med at måle graden af ​​polarisering i debatten omkring disse spørgsmål.

Processen startede med en undersøgelse, som Center for Public Relations gennemførte til sin globale kommunikationsrapport for 2021, som identificerede flere store problemer, som PR-professionelle troede, de skulle tage fat på i det kommende år. Cook delte disse problemer med ledere hos PR-firmaet Golin, hvor han havde været administrerende direktør (og stadig har en økonomisk interesse), og delte dem derefter med softwarefirmaet Zignal Labs.

"I betragtning af det enorme problem, som det nuværende niveau af polarisering forårsager for mennesker, regeringer og virksomheder, besluttede vi at udvikle et nyt værktøj, der kunne måle det - og forhåbentlig hjælpe med at reducere det," sagde Cook.

Deres tilgang er baseret på Ad Fontes-grafen over mediebias, som kategoriserer medier efter et venstre-højre politisk spektrum på den ene akse og pålidelighed på den anden akse. Zignal AI-værktøjet indtaster de 10 bedste politiske emner og krydshenviser dem med sociale indlæg, der inkluderer links til artikler fra publikationer, der er på Ad Fontes-diagrammet. Baseret på publikationens placering på diagrammet tildeler værktøjet en score, der bestemmer, hvor venstre eller højre de fleste af de sociale medier er på et bestemt emne. Forskellen mellem hvor mange højre/konservative artikler der deles om et emne i forhold til hvor mange venstre/liberale publikationer der deles giver en Polarization Index-score.

Det store antal indlæg, der er involveret i at skabe denne score - mere end 60 millioner - kræver AI for at udføre arbejdet hurtigt.

"Polariseringsindekset giver et varmekort over, hvilke problemer der er de mest kontroversielle og de faktorer, der bidrager til deres splittelse," sagde Cook. "Vi kan tegne implikationer for mennesker, virksomheder og kommunikatører, som måske ønsker at engagere sig i disse emner."

Cook siger også, at PR-udøvere bliver nødt til at fortsætte med at adressere kritik af AI baseret på privatliv, arbejdskraft, bias og social retfærdighed, men tilføjer, at hans egne erfaringer har vist, at AI også kan have en positiv effekt på disse områder.

Når det er sagt, tilføjede Cook, "Hver ny teknologi har aspekter af det, der er skræmmende, og AI er ikke anderledes end noget andet. Mens vi brugte AI til at udføre virkelig vigtigt arbejde med vores polariseringsindeks, kan AI og er blevet brugt til at sprede desinformation og påvirke politiske kampagner gennem bots. Hver gang der er en ny teknologi, vil nogen bruge den på en skadelig måde."

Jagt AI med AI

Når det kommer til at afhøre både de positive og negative aspekter af AI, er USC Annenbergs ph.d.-studerende i kommunikation på forkant med denne forskning, og de bygger bro mellem datalogi og samfundsvidenskab for at opbygge dyb indsigt i både de tekniske og kulturelle implikationer af AI.

Doktorand Ho-Chun Herbert Chang siger, at hans bachelorår på Dartmouth College var formative. "Dartmouth var stedet, hvor udtrykket AI blev opfundet i 1952," bemærkede han. "Jeg studerede matematik og kvantitativ samfundsvidenskab, og til mit senior fellowship-program lavede jeg et fiktionsprojekt om kunstig intelligens. Det var starten på, at jeg så på AI fra både en teknisk og en humanistisk måde."

Efterhånden som hans akademiske karriere skred frem, så Chang en "kløft" mellem, hvordan praktiserende læger og offentligheden ser kunstig intelligens. "Fra datalogiens side er der mere vægt på de tekniske aspekter af design af algoritmer," sagde han. "Fra den humanistiske side er der fokus på samfundsværdier som det primære princip i forhold til organisering af forskning."

Et af de projekter, Chang arbejdede på i det forløbne år, viste AI's potentiale til at undersøge menneskelig adfærd - og adfærden af ​​andre AI-systemer. I samarbejde med Emilio Ferrara, lektor i kommunikation og datalogi, hvis banebrydende forskning identificerede, hvordan Twitter-bots påvirkede den amerikanske præsidentkampagne i 2016, hjalp Chang med at bygge videre på dette arbejde op til valget i 2020. Ved hjælp af et AI-værktøj kaldet Botometer var holdet i stand til at kvantificere, hvor meget Twitter-trafik omkring konspirationsteorier, der blev genereret og forstærket af bots. "Botometeret ser på hver Twitter-kontos tidslinjedata og metadata ved at bruge maskinlæring til at finde ud af, om en konto er et menneske eller en bot," sagde Chang.

Chang arbejdede også sammen med Allissa Richardson, assisterende professor i journalistik, for at analysere bevægelsen for raceretfærdighed, der fulgte efter mordet på George Floyd af Minneapolis politi. "A big part of communication research is about how users participate on social platforms—mediated by algorithms—and how they use these platforms to self-organize for democratic movements," he said. "That's the kind of work I want to do. I'm engaging holistically with AI, and Annenberg is the perfect place for that research."

Ignacio Cruz focused his dissertation on the use of AI tools in workplace recruitment. Perhaps not surprisingly, he found that the human recruiters who used AI to sort and recommend applicants for positions had very polarized opinions about the effectiveness of the AI. "They often saw AI as either an adversary or an ally," said Cruz, now a postdoctoral fellow at Northwestern University. "Sometimes recruiters see these systems as a time-saver, as an ally. But the job candidates these systems surface often don't jibe with the recruiters' expertise."

While acknowledging the power of AI to help people make meaning out of huge data sets, Cruz also cautions about many issues that can arise from uncritically accepting the outputs of such systems. Using AI as an intermediary for communication is such a new phenomenon, "We just need a lot more education and critical inquiry about how these technologies are developed before they are deployed to the masses," he said.

Cruz's own research has shown that AI systems often reflect the biases of those who develop them, as they rely upon human intervention during their creation and implementation. "Artificial intelligence as it's being developed is scattered and largely unregulated," he said. "If these technologies really are going to help us create a better tomorrow, then they need to be designed with purpose, and they need to be continually audited—not only for efficiency, but for sustainability and ethics."

The desert of AI

For Kate Crawford, the problem with much of the public conversation around the potential of AI is the lack of any critical lens by which to monitor it in the meaningful ways Cruz suggests.

"We are subjected to huge amounts of marketing hype, advertising and boosterism around artificial intelligence," said Crawford, research professor of communication. "Part of what I do is look at the way in which artificial intelligence is not just a series of algorithms or code … but to really look at this much bigger set of questions around what happens when we create these planetary-scale computational networks? Who gains, but also, who loses?"

In the first chapter of her new book "Atlas of AI:Power, Politics and the Planetary Costs of Artificial Intelligence " (Yale University Press, 2021), Crawford begins with her journey to that lithium mine, setting the tone for an exploration of the planetary costs of AI. Her devastating critique frames AI as an extractive industry—both literally, in its reliance on finite resources and labor for its components and its power, and figuratively, in the amount of data it consumes, categorizes and monetizes.

"Over the course of researching this book, I learned much more about the environmental harms of AI systems," Crawford said. "Servers are hidden in nondescript data centers, and their polluting qualities are far less visible than the billowing smokestacks of coal-fired power stations."

Describing the amount of energy needed to power something like Amazon Web Services as "gargantuan," Crawford noted that the environmental impact of the AI systems that run on those platforms is continuing to grow. "Certainly, the industry has made significant efforts to make data centers more energy-efficient and to increase their use of renewable energy," Crawford said. "But already, the carbon footprint of AI has matched that of the aviation industry at its height."

Crawford said that the entire model of AI is extractive and exploitative and would need to be "re-architected" to work differently. "We also need regulatory and democratic oversight," she added. "The proposed European Union AI regulations offer a good starting point, but that's just one effort—and we have yet to see something similar in the United States or China, the two largest producers of AI technologies."

Working with her USC Annenberg colleagues, Crawford is hoping to contribute to what a reimagined AI would look like.Crawford has teamed up with Mike Ananny and a team of doctoral students and practitioners on a new research project that will analyze issues within the data sets used to train AI systems.

"AI could help design a shipping system that would minimize the carbon imprint, rather than maximizing profit margin," said Ananny, associate professor of communication. "It's a question of, what do we want to maximize for in our AI systems? It pushes the problem back onto the people with power and it says, it's not a data problem. It's a values problem."

Crawford said that USC Annenberg's combination of technical expertise with a deep understanding of human communication makes it the ideal place for that kind of reimagining of a less-harmful AI.

"Our hope is that the research will contribute to how USC and the broader academic community thinks about the future of AI, in terms of how we build it, use it, and regulate it," she said.

Toward an ethical AI

As part of his studies of media and technology, Ananny is a scholar of, and a contributor to, the big conversations about how society can reap the benefits of big-data AI systems while still preserving (or better, reestablishing) something that might be recognized as ethics and privacy.

While many critics and policymakers have proposed stronger tech company regulations that would force them to behave more like public utilities, with greater transparency, Ananny is among those who argue that regulatory reforms don't go far enough.

"We've allowed capitalist institutions to have massive amounts of power for commodifying people, for allowing wealth inequalities and wealth concentrations—and data is just a part of that, and part of perpetuating that," Ananny said. "Honestly, until you solve this problem of late capitalism where individuals have zero power and companies have all the power, you can kind of nibble around the edges with regulations, but that won't have any real effect on the problem."

Ananny echoes Crawford's work, asserting that the climate crisis is bringing increasing urgency to the problem of AI as an extractive industry.

"We cannot allow the planet to burn because of the energy needs of Bitcoin's server farms," he said. "These AI systems are optimizing Amazon's ability to fly products all over the world, with a huge carbon footprint, so people can have a spatula delivered to their Amazon box."

Ananny does note that some scholars, scientists, activists and politicians are looking for opportunities to leverage the positive impacts of AI's computing power in a way that doesn't exacerbate the climate emergency.

"This is the language we're using to create a new kind of reality," Ananny said. "Data sets, statistical certainty, optimization, model-making, error detection—all those kinds of seemingly technical terms. But we also need to engage with questions of values. Is it worth it to have all of these things happening at such a huge scale? At what point, in terms of the human and material cost, do you tip too far over? We're going to have to be able to make these kinds of judgments about particular AI tools—including, "Don't build it.'"

Varme artikler