October 6, 2022

Market Analytics

De zakelijke fanaten

Waarom gaan ‘data’ en ‘AI’ altijd samen?

Gegevens en AIAI en gegevens.

Je hoort de twee termen bijna altijd in één adem uitspreken. Waarom is dat?

Als u een oprichter bent die meer over deze onderwerpen probeert te begrijpen, of het nu gaat om het verbeteren van uw workflows of producten of een bepaald factor van uw activiteiten, dan is hier een inleiding voor een bedrijfseigenaar over wat mensen bedoelen als ze erop staan ​​om de twee samen te zeggen.

AI heeft facts nodig om iets te kunnen doen.

In de kern is AI een algoritme, dat in gewoon Engels een proces is dat enter neemt en output produceert. Net zoals je car, die slechts een stuk metaal is dat in de garage staat totdat hij brandstof heeft om hem te laten werken, kan een algoritme op zichzelf zonder gegevens om te verwerken niets nuttigs maken. Sterker nog, het kan helemaal niets.

Dit betekent dat als u wilt dat uw bedrijf profiteert van AI, de eerste taak is om uw gegevens bij elkaar te krijgen en in vorm te krijgen. Dit kan een struikelblok zijn, zegt Phong Nguyen, oprichter van info science consultancy Companions in Enterprise. “Van de klant fulfilled wie we hebben gewerkt en fulfilled wie we hebben gesproken, zijn de belemmeringen om meer gegevensgestuurd te zijn meestal de basis van het hebben van schone, consistente gegevens en het gecentraliseerd en veilig zijn”, zegt ze.

Dat betekent meestal dat u uw gegevens uit spreadsheets haalt of uw gegevens van meerdere platforms – zoals een CRM-platform (Client Connection Management) en een marketingplatform – samenbrengt in een gecentraliseerde opslagplaats, waar de gegevens kunnen worden gecombineerd en vergeleken. voor analyse. Meestal moet het dan nog op verschillende manieren worden opgeschoond en genormaliseerd om ervoor te zorgen dat het constant en in de juiste vorm is voordat datateams de juiste conclusies kunnen trekken en vervolgens op de details kunnen voortbouwen met AI

Bovendien heeft de meeste AI grote hoeveelheden gegevens nodig om betrouwbare resultaten te produceren, om dezelfde reden dat je een grote steekproef van alles nodig hebt om een ​​redelijk oordeel te kunnen vellen. We zijn allemaal bekend achieved politieke peilingen, waarbij experts meestal een nauwkeurigheid van meer dan 95 procent claimen about hoe de grotere bevolking van program is te stemmen bij een verkiezing doorway ergens rond de 300 mensen te bemonsteren.

Dat is voor een simpele keuze tussen twee opties. Als u complexere voorspellingen probeert te maken, zoals onderscheid maken tussen soorten klantgedrag in uw marketinggegevens, moet u beginnen achieved vele duizenden voorbeelden. Vaak zult u veel meer gebruiken om een ​​sterk vertrouwen in uw resultaten te krijgen.

Above hoeveel knowledge hebben we het? Een goede statistische analyse kan u een precies aantal geven voor wat u probeert te doen, maar als algemene regel zijn honderdduizenden rijen meestal aan de lage kant voor op equipment discovering gebaseerde analyses. “Ik ben niet gewend om satisfied iets minder dan een miljoen rijen te werken”, zegt Chantel Perry, een ervaren datawetenschapper bij grote bedrijven en auteur van het boek Gegevens Newbie tot Guru.

En voor zoiets als een marketinganalyse, waarbij de klanttendensen die u probeert te begrijpen van dag tot dag en van maand tot maand kunnen verschillen, wilt u ook genoeg gegevens verzamelen more than een periode die lang genoeg is om bruikbare voorspellingen te doen: “U wilt minimaal zes maanden actief zijn en minimaal zes maanden gegevens around uw klanten verzamelen”, zegt Perry.

Dus nu begrijp je waarom AI data nodig heeft. Die afhankelijkheid gaat ook de andere kant op. De waarheid is dat je het een niet zonder het ander kunt hebben.

Veel information komt uit AI

Net zoals AI-algoritmen details nodig hebben als enter, is hun output vaak een vorm van info.

Stel dat uw marketinggegevens op zo’n manier worden gekraakt dat u merkt dat u acht grote clusters van klanten heeft. Je zou verder kunnen ontdekken dat verschillende clusters van klanten verschillende soorten pitches of advertenties zouden moeten ontvangen. Die outputs zijn gegevens die u in een ander algoritme kunt invoeren, een waar u vervolgens die labeling kunt gebruiken om te voorspellen tot welk cluster een toekomstige klant zal behoren en vervolgens een geautomatiseerd proces hebben dat hen de pitches of advertenties toewijst waarvan wordt voorspeld dat ze het meest zullen zijn. effectief.

Als je erover nadenkt, zijn alle gegevens het resultaat van een proces dat lijkt op een algoritme, vaak AI. Soms stuurt AI dat proces voor het verzamelen van gegevens aan, soms niet, en soms is het onderscheid niet zo duidelijk. Neem bijvoorbeeld gegevens about het gemiddelde inkomen en bestedingspatroon in een geografische locatie waarop u zich richt: deze kunnen afkomstig zijn van een combinatie van enquêtes, overheidsgegevens, gegevens die zijn verzameld door creditcardmaatschappijen en verkopers en vervolgens weer zijn samengevoegd tot één enkel getal voor een enkel tellingsblok, dat uw marketingalgoritmen vervolgens kunnen gebruiken om u te helpen verschillende klanten op verschillende manieren te targeten.

Er is een algemeen gezegde dat ik vaak gebruik als ik het in excess of datawetenschap heb: “Niemand gelooft in een product, behalve de persoon die het heeft geschreven, en iedereen gelooft in een bepaalde dataset, behalve de persoon die verantwoordelijk is voor het samenstellen ervan.” Noedel daar een minuutje over.

We hebben de neiging om te geloven dat gegevens noodzakelijkerwijs waar zijn en niet afhankelijk zijn van een menselijk of AI-proces om te zijn zoals het is. Maar dat is vaak niet waar. Als u tot zinvolle resultaten wilt komen, moet u de gegevens onderzoeken die uw modellen voeden – evenals de modellen die de gegevens produceerden die u aan uw modellen voedt.

“Het grootste probleem waar ik problemen mee zie, is de gegevenskwaliteit”, zegt Perry. “Alles wat in het besluitvormingsproces komt, moet worden gecontroleerd op reinheid, vooringenomenheid en andere problemen, vooral met machine mastering-modellen.”

Als u dit heen en weer tussen gegevens en AI en hun feedbacklus begrijpt, kunt u voorkomen dat u vertrouwt op analyses die niet zo goed zijn als ze op het eerste gezicht lijken.