Wereldwijde CEO’s delen inzichten over de implementatie van AI

5 min lezen107 weergaven


Canadezen zijn verdeeld over AI. PWC’s Onderzoek naar hoop en angst uit 2024 ontdekte dat 52% van de Canadese werknemers gelooft dat generatieve AI de vooroordelen in hun organisatie die op hen van invloed zijn, zal vergroten.

Wat het grote publiek ook van AI mag denken, bedrijven zijn het er mee eens en zien het grote potentieel van AI voor het optimaliseren van bestaande systemen en het creëren van nieuwe. AI wordt voor de meeste industrieën niet langer gezien als simpelweg een optie, maar als een onvermijdelijkheid.

Omdat bedrijven met de flexibiliteit en budgetten de leiding hebben over de ontwikkeling en implementatie van AIen anderen beginnen te volgen, kan het gemakkelijk zijn om met de snelheid van innovatie te bewegen zonder AI door een menselijke lens te bekijken. In deze geest kwamen panelleden bijeen op de Katalysatoronderscheiding 2024 in Toronto op 7 oktober 2024 om te discussiëren over “Het vormgeven van een inclusieve toekomst door middel van generatieve AI.”

Kathleen Taylor, voorzitter van Element Fleet Management, Altas Partners en The Hospital for Sick Children, sprak over het portfolio van organisaties waarmee ze samenwerkt en zei dat ze over het algemeen optimistisch zijn over een door AI ondersteunde toekomst van werk. “Er zitten zulke enorme kansen aan dit alles vast,” zei ze.

Dit sentiment werd herhaald door discussiemoderator David Morgenstern, president van Accenture Canada, die zei: “Wij publiceerde een artikel bij Microsoft Dit voorjaar werd gezegd dat zelfs de traditionele Canadese adoptie (van AI) het equivalent van een verzekerings- of detailhandelssector aan Canada zou toevoegen.” Dat vertaalt zich in een jaarlijkse economische meevaller van 180 miljard dollar aan arbeidsproductiviteitswinst in 2030.

AI kan voorgoed helpen bij innovatie

Panelleden verlegden vervolgens hun focus naar de implementatie. Jennifer Freeman, CEO van PeaceGeeks, benadrukte de impact van AI op het overbruggen van de kloof tussen gebruikers en overheid. “We gebruiken AI in onze digitale tools echt als gelijkmaker”, zei ze.

Voor immigranten zijn er veel barrières (zoals taal en technologie) bij de toegang tot hulpbronnen. PeaceGeeks werkte samen met Accenture om een ​​AI virtueel loopbaancoachingplatform te creëren dat mensen kan helpen sollicitatiegesprekken, soft skills en jobmatching te oefenen voor een permanent verblijf.

Op 7 oktober 2024 had het platform, dat in juni werd uitgerold, al ruim 100.000 unieke gebruikers.

AI kan de huidige vooroordelen bestendigen

Panelleden waren het erover eens dat een gezonde dosis voorzichtigheid geboden is bij het creëren van platforms die dat kunnen vertrouwen op AI. Pamela Pelletier, Country Leader & Managing Director, Canada, Dell Technologies, zei: “Het draait allemaal om de data. Vuilnis erin, afval eruit. Als je gegevens hebt die vertekend of bevooroordeeld zijn, dan heb je een probleem.”

Ze gaf het voorbeeld van AI-chatbots, die kunnen ‘hallucineren’. “Waar haalt ChatGPT hun informatie vandaan? Twitter, wat dan ook, al deze plaatsen. De gegevens zelf zijn dus potentieel bevooroordeeld.”

Aneela Zaib, oprichter en CEO van emergiTEL, zei: “Feit is dat we van de LLM-modellen (groot taalmodel) die we momenteel in handen hebben, niet weten hoe ze zijn getraind of op welke gegevens ze zijn getraind. ”

AI moet de juiste data krijgen

Wat kan er gedaan worden om dit probleem te bestrijden? Hoe kunnen we dezelfde blinde vlekken in de toekomst voorkomen?

Zaib werkt al aan oplossingen. “Een van de manieren waarop we hebben geprobeerd dit te overwinnen, is dat we deze modellen hebben verfijnd op basis van de dataset die al inclusief van aard is. Dus als je een dataset aan deze tool geeft die al inclusief is en je set-prompts definieert (en er zijn veel details… waar we gek op kunnen worden), komt het erop neer dat je heel voorzichtig moet zijn bij het gebruik van deze systemen , door ze de vangrails te geven en tegelijkertijd deze systemen aan het einde te auditen met de resultaten die je krijgt.”

De tools van haar bedrijf leveren resultaat op diverse kandidaten voor een baan aan klantbedrijven, en AI maakt deel uit van die tools. Als ze de resultaten van AI controleren en een baan of vaardigheden vinden die in bepaalde gemeenschappen niet door kandidaten wordt ingevuld, analyseren ze die resultaten, verfijnen ze en voeren het AI-model opnieuw uit. Voortdurend beheer van deze AI-tools en -modellen maakt deel uit van het proces, vooral als het werk zo belangrijk is. Zaib zei: “Diversiteit is een praktijk die we elke dag moeten beoefenen.”

DEI en AI kunnen samenwerken

Pelletier herhaalde dit sentiment en zei: “We hebben met de technologie die nu bestaat de mogelijkheid om daadwerkelijk mensen binnen te halen die historisch vergeten of achtergelaten zijn.”

Organisaties die AI gebruiken, moeten hun steentje bijdragen. Pelletier zei: “Als organisatie hebben we de verantwoordelijkheid om bij het trainen van modellen ervoor te zorgen dat die gegevens de waarden weerspiegelen die we als organisatie hebben. Het is dus heel belangrijk dat we die gegevens gebruiken en de gegevens zodanig samenstellen dat ze die waarden weerspiegelen… en dan zullen we een zeer positief resultaat hebben.”

Ze voegde eraan toe dat DEI en AI kunnen en moeten samenwerken om de belangen van de mensheid te bevorderen. “We moeten onze DE&I vertegenwoordigingdie mensen, aan het begin aan tafel terwijl we de AI-projecten implementeren. En ze moeten de mogelijkheid of autoriteit hebben om op de pauzeknop of de stopknop te drukken. Als iemand de gegevens aan het analyseren is en er iets ongepast is, kunnen ze dat onderbreken en het gaan corrigeren”, zei ze.

Wees opzettelijk met AI

Nu organisaties zich haasten om AI aan verschillende aspecten van hun bedrijf toe te voegen, is het belangrijk om de tijd te nemen om dit op de juiste manier te doen. Als een bedrijf geen veel klantenserviceverkeer heeft, heeft het waarschijnlijk geen AI-chatbot nodig. Als een bedrijf een grote marketingafdeling heeft, hoeft het waarschijnlijk geen AI te trainen om artikelen te schrijven. En als een bedrijf veel waarde hecht aan zijn waarden, mag het geen licentie verlenen aan een LLM die getraind is in bevooroordeelde datasets.

Taylor vatte het perfect samen: “We kunnen dit laten werken, zolang we maar bekwaam bouwen, goed testen, gebruiken, maar dan terugkomen en ervoor zorgen dat wat er aan de andere kant uitkomt precies het resultaat is waar we op hadden gehoopt. , of dat nu een nieuwe rekruut is, een systeem dat een nieuw klantenaanbod levert, wat het ook mag zijn.”

Wil je meer weten over de Catalyst Honours van volgend jaar? Meld u nu aan en we sturen je een e-mail wanneer de registratie wordt geopend.



Bron