En Vurdering Av Den Etiske Bruken Av KI I Sosiale Medier

Innledning

I det stadig voksende digitale universet, forsøker vi å navigere oss gjennom det komplekse terrenget av sosiale medier. Fra deling av bilder til blogg-innlegg og tankevekkende diskusjoner, har sosiale medieplattformer blitt et dominerende virtuelt torg. Her jobber et mylder av algoritmer og kunstig intelligens (KI)systemer bak kulissene utrettelig for å forme vår opplevelse på nett. Med tanke på dette, burde bruken av KI av sosiale medier bli forbudt?

I denne teksten vil jeg gå inn i de psykologiske og kognitive effektene som sosiale medier påfører brukerne sine og argumentere for hvorfor implementeringen av KI på disse plattformene enten bør forbys fullstendig eller underlegges streng regulering. Videre vil jeg undersøke hvordan dette relaterer til å være et problem med “KI-rettferdighet”.

Diskusjon

Først vil jeg starte med en definisjon av KI, etterfulgt av en definisjon av sosiale medier.

KI kan defineres som “datasystemer eller algoritmer sin evne til å etterligne menneskelig atferd.” (merriam-webster, u.d.). For å etterligne menneskelig atferd kan datasystemet simulere deler av menneskelig intelligens eller kognitive ferdigheter for å utføre oppgaver som problemløsning, læring, resonnement, persepsjon og forståelse av språk. Typisk bruker KI-systemer algoritmer, data og maskinlæring for å ta autonome beslutninger og tilpasse seg endrede situasjoner.

Sosiale medier refererer til plattformer på nett og nettsteder som gjør det mulig for brukere å opprette, dele og samhandle med innhold og andre brukere. Brukere kan poste tekst, bilder, videoer og engasjere seg med andre gjennom kommentarer og liker-klikk. Sosiale medier legger til rette for kommunikasjon og nettverksbygging i global skala, noe som gjør det til et fremtredende aspekt av moderne digital kultur. (Merriam-Webster, u.d.)

Med dette i bakhodet, og ved å sette konseptet KI til side for et øyeblikk, har det vært noen forskning på de negative psykologiske og kognitive effektene sosiale medier har på sine brukere. Følgende funn er sammensatt av Center for Humane Technology, i deres “Ledger of Harms” (Center of Humane Technology, 2022). Jeg vil fortsette med å liste opp noen av dem.

  • Netthets øker betydelig risikoen for selvmordstanker hos barn, og gjør dem tre ganger mer sannsynlig å vurdere selvmord enn jevnaldrende. Mobbeopplevelsen på nett er spesielt belastende, sannsynligvis på grunn av offerets viten om et større offentlig publikum (van Geel, Vedder, & Tanilon, 2014).

  • Overdreven skjermbasert mediebruk hos barnehagebarn, over en time om dagen, hemmer kjerneområder i hjernen som er ansvarlige for språk og leseferdighet. Når skjermtiden øker, synker språkferdighetene, og vitale hjerneområder lider tap av strukturell integritet. Denne studien setter fokus på bekymringer rundt skjermbruk for barnehagebarns hjerneutvikling (Hutton, Dudley, & Horowitz-Kraus, 2019).

  • Langvarig skjermtid i tidlig barndom fører til utviklingsmessige forsinkelser i språk, problemløsning og sosial interaksjon, som vedvarer i over et år. Overdreven skjermeksponering i disse formative årene kan betydelig hindre optimal utvikling hos et barn (Madigan, Browne, Racine, & Mori, 2019).

  • Økende bruk av sosiale medier korrelerer med høyere nivåer av depresjon hos tenåringer. For hver ekstra time brukt på sosiale medier, er det en 2% økning i depressive symptomer (Boers, Afzali, Newton, & Conrod, 2019).

  • Bare det å ha en smarttelefon i nærheten avleder oppmerksomheten, selv når den er av og med skjermen ned. Et eksperiment viste en nedgang i hukommelse og problemløsning når telefoner var i nærheten, men avslått. Overraskende nok forbedret telefonavhengige mennesker hukommelse og intelligens når telefonene var i et annet rom. Telefoner er “høyprioritetsstimuli”, som tapper oppmerksomheten, selv når de ignoreres (Ward, Duke, Gneezy, & Bos, 2017).

  • Kort tid etter starten av smarttelefonbruk, avtar mental matematikk evne, oppmerksomheten svekkes, og konformiteten øker. Hjerneskanninger viser redusert aktivitet i den høyre prefrontale cortex, sett i ADHD (Hadar, Hadas, Lazarovits, Alyagon, Eliraz, & Zargen, 2017).

  • Hukommelsen foretrekker sosial tekst over kompleks tekst. Folk husker kommentarer om nyheter bedre enn artikkelen eller overskriften. De husker Facebook-innlegg bedre enn boksætninger eller ansikter (Mickes, Darby, Hwe, Bajic, Warker, Harris, & Christenfeld, 2013).

  • Å skifte mellom mediakanaler skader arbeids- og langtidsminnet. Den “ekstraktive oppmerksomhetsøkonomien” og mange sosiale plattformer truer menneskelig hukommelse (Uncapher og Wagner, 2018).

Med disse dokumenterte effektene i tankene, vil jeg fortsette å prøve å svare på det innledende spørsmålet.

KI brukes i ulike aspekter av sosiale medier. Imidlertid ville de mest relevante være bruken i anbefalingsalgoritmer, atferdsbasert markedsføring og ansiktsgjenkjenning. Hvis vi tar hensyn til sosiale mediers negative psykologiske og kognitive effekter på ungdommer og voksne, bør bruken av KI i disse nevnte mekanismene ikke tas lett på. For meg ser det ut til å være tre hovedaspekter som potensielt kan være årsaken til disse negative effektene.

  1. Bruk av KI for å holde folk aktive på plattformen lenger
  2. Bruk av KI for å lage målrettede annonser basert på brukerens aktivitet og data
  3. Bruk av KI for å forvrenge folks syn på virkeligheten

Bruk av KI for å holde folk aktive på plattformen lenger

Anbefalingsalgoritmer, drevet av KI, er trolig det som driver personlige innholdsstrømmer. Disse algoritmene kan analysere brukeratferd, preferanser og engasjementsmønstre for å foreslå innlegg, videoer eller produkter som sannsynligvis vil resonere med brukeren. Dette forbedrer brukeropplevelsen og holder dem engasjert, noe som driver brukerens oppmerksomhet og plattformbruk (Fayyaz, et.al. 2020)

Dette kan vi si er et tilfelle av “ikke-overvåket” automatisert beslutningstaking. KI-en bestemmer hva som skal vises i brukerens innholdsstrøm uten noen menneskelig innblanding. En maskinlæringsmetode for å lage en liste over innhold som skal eksponeres for brukeren, vil resultere i et system som bare anbefaler innhold som algoritmisk anses som relevant for brukeren. Jeg vil si at dette er uetisk, siden det ikke tas hensyn til om brukeren har nytte av å se det; bare beslutningen om at brukeren bør se det, på grunn av nivået av “relevans”.

Innholdet anses som relevant fordi KI-en anslår en høyere sannsynlighet for at brukeren vil samhandle med innholdet på en eller annen måte. Hvis brukeren konsekvent blir vist innhold som brukeren ønsker å samhandle med, forblir brukeren lenger aktiv på plattformen. Hvis brukeren forblir aktiv lenger på plattformen, blir vedkommende eksponert for flere annonser, noe som igjen øker plattformens inntekter.

Med andre ord bruker disse sosiale medieplattformene KI for å lage en liste over innhold som har en høy sannsynlighet for at brukeren vil samhandle med det, og utnytter brukerens kognitive mekanismer for å optimalisere annonseinntekter. Etisk sett er det, i min mening, en uetisk praksis som utnytter menneskers kognitive mekanismer og svakheter for økonomisk gevinst. Spesielt siden disse menneskene mest sannsynlig ikke er klar over hvordan deres kognitive mekanismer fungerer, eller til og med hva de er.

Bruk av KI for å lage målrettede annonser basert på brukerens aktivitet og data

Atferdsbasert annonsering er konseptet med å spore brukerinteraksjoner og preferanser med det formål å levere svært målrettede annonser (Boerman, S. C., et. al. 2017). Dette resulterer i økt annonseeffektivitet og, i sin tur, bedre avkastning for bedrifter. Med tanke på at Datatilsynet har innført et midlertidig forbud mot atferdsbasert annonsering, som påvirker Metas forretningspraksis (Judin, 2023), tenker jeg det er trygt å anta at Facebook og Instagram har adoptert denne typen praksis.

Bruken av KI for å spore og analysere brukeratferd kan grense til å være invasiv, da den går inn i enkeltpersoners aktiviteter på nett og personlige preferanser. Det hyper-målrettede innholdet som leveres gjennom atferdsbasert markedsføring kan skape ekkokamre og forsterke skjevheter, samt begrense eksponeringen for forskjellige synspunkter og informasjon. Denne uetiske overvåkningen og sporing av enkeltpersoners atferd på nett kan sees på som manipulasjon.

Bruk av KI for å forvrenger folks syn på andre og seg selv

Ansiktsgjenkjenning brukes i sosiale medier til forskjellige formål, men for formålet med denne teksten, vil jeg fokusere på “skjønnhetsfiltre”. Med skjønnhetsfiltre mener jeg filtre som forbedrer en persons utseende for å se mer konvensjonelt attraktive ut og/eller glatter ut ufullkommenheter.

En studie av Ozimek, et. al., fant at “(…) det ble funnet en betydelig negativ korrelasjon mellom redigering av bilder og selvoppfattet attraktivitet i form av utseende” (Ozimek, et. al. 2023. s.8). KI-drevne skjønnhetsfiltre på for eksempel Instagram, fasiliterer en adferd med bilde-redigering." En bekymring den samme studien reiste er at disse KI-drevne skjønnhetsfiltrene kan fjerne eller glatte over aspekter ved utseendet deres som de kanskje ikke anser som lite attraktive selv. Studien nevner også at “Mange studier indikerte en positiv korrelasjon mellom selvoppfattet attraktivitet og selvfølelse (. . . )” (Ozimek, et. al. 2023. s.5).

I jakten på å overholde samfunnets skjønnhetsnormer kan disse filtrene oppmuntre til homogenisering av skjønnhet, der individualitet og unike trekk reduseres. Dette kan føre til et potensielt tap av selv-identitet og en følelse av frakobling fra ens autentiske selv. Som et resultat kan enkeltpersoner uforvarende bli vant til en endret versjon av seg selv, noe som gjør det vanskeligere å skille mellom deres virkelige og filtrerte selv.

Hvordan er dette et rettferdighetsproblem?

Bruken av KI i sosiale medier reiser rettferdighetsproblemer på tvers av sine ulike bruksområder. I anbefalingsalgoritmer kan KI-drevet personalisering forbedre brukeropplevelsen, men kan utilsiktet bidra til filterbobler. Disse boblene kan isolere brukere innenfor deres eksisterende overbevisning og preferanser, samt begrense eksponeringen for forskjellige synspunkter og forsterke skjevheter.

Atferdsbasert markedsføring, et annet aspekt av KI i sosiale medier, presenterer personvernbekymringer. Det optimaliserer annonseeffektiviteten ved å levere svært målrettet innhold, men overvåker også brukerens atferd og preferanser. Dette reiser etiske spørsmål rundt personvernrettigheter og potensialet for diskriminerende praksis. Hypermålrettede annonser kan føre til opprettholdelse av stereotyper, og kanskje til og med historiske data.

I tillegg kan KI’s involvering i skjønnhetsfiltre og selvoppfatning på sosiale medier ha vidtrekkende implikasjoner. Disse filtrene fremmer ofte konvensjonelle skjønnhetsstandarder, som kan forvrenge brukernes selvoppfattede bilde og oppmuntre til økt fokus på å tilpasse seg disse idealene. Denne KI-drevne forvrengningen av selvoppfattelse kan ha uforholdsmessig stor innvirkning på enkeltpersoner som ikke passer innenfor disse skjønnhetsstandardene, og kan potensielt føre til følelser av utilstrekkelighet og lav selvfølelse. Som et resultat, kan disse skjønnhetsfiltrene opprettholde samfunnsmessige skjevheter når det gjelder utseende.

I bunn og grunn, i sosiale medier, handler KI-rettferdighetsproblemer om algoritmiske skjevheter, personvernsbekymringer og opprettholdelse av partiskheter om utseende. Å håndtere disse problemene vil kreve en nøye balanse mellom etiske KI-praksiser, tilstrekkelig regulering og en mer brukersentrert formgiving av plattformen for å sikre at KI-drevne systemer fremmer et trygt digitalt miljø der sosiale mediebrukere ikke utnyttes for profitt.

Konklusjon

Integrasjonen av KI i sosiale medier har satt i gang diskusjoner om dens konsekvenser og de etiske dimensjonene. Den spiller en betydelig rolle i sosiale medier, med KI-drevet innholdskuratering som en av dens kjernekomponenter. Tilnærmingen bruker anbefalingsalgoritmer drevet av KI for å engasjere brukere ved å eksponere personalisert innhold. Imidlertid er det selvfølgelig etiske bekymringer som oppstår angående potensiell utnyttelse av brukerdata for økonomisk gevinst.

Dette, i kombinasjon med målrettet annonsering, bruker atferdsbasert markedsføring for å spore og analysere brukeratferd, levere personlig tilpassede annonser. Dette forbedrer annonseffektiviteten, men kan også bidra til opprettelse av ekkokamre, der brukere bare eksponeres for informasjon som samsvarer med deres allerede eksisterende overbevisning.

Påvirkningen av KI på selvbilde er en annen interessant dimensjon. KI-drevne skjønnhetsfiltre kan endre brukernes selvoppfattede attraktivitet, og dermed påvirke selvfølelsen og oppmuntre til konformitet til konvensjonelle skjønnhetsstandarder.

Diskusjonen om KI’s rolle i sosiale medier utvides til rettferdighetsbekymringer, inkludert algoritmiske skjevheter, personvernsproblemer og opprettholdelse av skjevheter i utseende. Å finne en balanse i reguleringen av skjønnhetsfiltre, drevet av KI, er viktig for å bekjempe disse bekymringene og fremme et tryggere digitalt miljø.

Selv om utfordringene er tydelige, ser det ut til å være behov for strengere regulering av KI i sosiale medier. Hovedsakelig for å forhindre utnyttelse av brukere for profitt, men også for å forhindre økning i psykologiske og kognitive problemer. Forhåpentligvis vil økt bevissthet og utviklende teknologi gi muligheten til å begrense KI’s potensielle risikoer gjennom robuste etiske retningslinjer og årvåkent tilsyn. Dette kan bidra til å tilby berikende brukeropplevelser uten å ofre brukernes psykologiske og kognitive helse.

References

  1. Barocas, S., Hardt, M., & Narayanan, A. (2019). Fairness and Machine Learning: Limitations and Opportunities. fairmlbook.org. http://www.fairmlbook.org

  2. Boerman, S. C., Kruikemeier, S., & Zuiderveen Borgesius, F. J. (2017). Online Behavioral Advertising: A Literature Review and Research Agenda. Journal of Advertising, 46(3), 363-376. https://doi.org/10.1080/00913367.2017.1339368

  3. Boers, E., Afzali, M. H., & Conrod, P. (2020). Social me- dia use and alcohol consumption in teens. Preventive Medicine. https://www.sciencedirect.com/science/article/pii/S0091743520300165

  4. Boers, E., Afzali, M. H., Newton, N., & Conrod, P. (2019). So- cial media usage and depression in adolescents. JAMA Pedi- atrics. https://jamanetwork.com/journals/jamapediatrics/article- abstract/2737909

  5. Center for Humane Technology. (2022, n.d, 7). Ledger of Harms. Ledger of Harms. https://ledger.humanetech.com/

  6. Fayyaz, Z., Ebrahimian, M., Nawara, D., Ibrahim, A., & Kashef, R. (2020). Recommendation Systems: Algorithms, Challenges, Met- rics, and Business Opportunities. Applied Sciences, 10(21), 7748. https://doi.org/10.3390/app10217748

  7. Hadar, A., Hadas, I., Lazarovits, A., Alyagon, U., Eliraz, D., & Zargen, A. (2017). Screen time and mental arithmetic in smartphone users. PLoS One. https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0180094

  8. Hutton, J. S., Dudley, J., & Horowitz-Kraus, T. (2019). Screen- based media and children’s brain development. JAMA Pediatrics. https://jamanetwork.com/journals/jamapediatrics/fullarticle/2754101

  9. Judin, T. (2023, 17. Juli). Midlertidig forbud mot adferds- basert markedsføring på Facebook og Instagram. Datatilsynet. https://www.datatilsynet.no/aktuelt/aktuelle-nyheter-2023/midlertidig- forbud-mot-adferdsbasert-markedsforing-pa-facebook-og-instagram/

  10. Lemola, A., Perkinson-Gloor, N., Brand, S., & Dewald-Kaufman, J. (2014). Electronic media use at night and depressive symptoms. Journal of Youth and Adolescence. http://dx.doi.org/10.1007/s10964-014-0176-x

  11. Madigan, S., Browne, D. T., Racine, N., & Mori, C. (2019). A longitudinal study of screen time in children. JAMA Pediatrics. https://jamanetwork.com/journals/jamapediatrics/fullarticle/2722666

  12. Merriam-Webster. (n.d.). Artificial intelligence. In Merriam-Webster.com dictionary. Retrieved October 15, 2023, from https://www.merriam- webster.com/dictionary/artificial%20intelligence

  13. Merriam-Webster. (n.d.). Social media. In Merriam-Webster.com dictionary. Retrieved October 15, 2023, from https://www.merriam- webster.com/dictionary/social%20media

  14. Mickes, L., Darby, R. S., Hwe, V., Bajic, D., Warker, J. A., Harris, C. R., & Christenfeld, N. J. S. (2013). Major memory for microblogs: What makes a message worth remembering? Memory & Cognition. http://dx.doi.org/10.3758/s13421-012-0281-6

  15. Ozimek, P., Lainas, S., Bierhoff, HW. et al.(2023). How photo editing in social media shapes self-perceived attractiveness and self-esteem via self-objectification and physical appearance comparisons. BMC Psychology, 11 (99), 1-14. https://doi.org/10.1186/s40359-023-01143-0

  16. Uncapher, M. R., & Wagner, A. D. (2018). Media multitasking and cogni- tive abilities. Proceedings of the National Academy of Sciences, 115 (40), 9889-9894. https://www.pnas.org/content/115/40/9889

  17. van Geel, M., Vedder, P., & Tanilon, J. (2014). Cyberbullying and adolescent mental health: Systematic review. JAMA Pediatrics. https://jamanetwork.com/journals/jamapediatrics/fullarticle/1840250

  18. Ward, A. F., Duke, K., Gneezy, A., & Bos, M. W. (2017). Brain drain: The mere presence of one’s own smartphone reduces available cogni- tive capacity. Journal of the Association for Consumer Research, 2 (2). https://www.journals.uchicago.edu/doi/abs/10.1086/691462