Från Usecase till en skalbar AI-lösning

Kristina Magnusson
Bonnier News Tech
Published in
7 min readJul 2, 2024

Briefen från annonsören till Bonnier News kreativa avdelning Brand Studio var tydlig, vi måste öka konverteringar och stärka kundens varumärkeskännedom. Absolut, sa teamet som ansvarar för kampanjleverans, och den grafiska formgivaren startade sitt jobb.

Formgivaren: — Kan vi lösa nya bilder på plats?

Client manager: — Nej.

Okej, till ritbordet och vårt närmsta stockfoto-bibliotek.

Sök: Landskap, väg: 557 626 träffar. Nej. Landskap öppen väg: 59 727 träffar. Nej. Försöker med stockbibliotekets urvalsfunktioner. Anger nya sökord. 2975 träffar. Top 300 bilderna, amerikanskt landskap och gula vägmarkeringar.

Stockbibliotek har mycket men inte allt. Bonnier News Brand Studio ställde sig frågan: Kan vi med hjälp av generativ AI skapa kampanjbilder som bättre matchar våra kunders behov?

Vi har en resa att dela med dig från start men inte till mål, för filosofiskt, vad är målet? Är det en korrekt bild till en kampanj som är målet, och vem avgör vad som är korrekt bild? Kan en generativ AI modell ge oss svaret på denna fråga? Antagligen inte. Men vi kan för första gången säga att vi har kunnat forma bilden själv, och inte bara förlita oss på att någon kanske någon gång har fotat exakt den bild vi söker, och dessutom sålt den till det stockbibliotek vi just köper licenser av.

Allt ovan och mer därtill rymdes i ett projekt som startade sen höst 2023 och pågick fram till december samma år. Vi bestämde oss för att lägga alla produktionskort på bordet, både för annonstexter, annonsbilder och illustrationer, syna alla sömmar av hur vi hanterar vår kunddata, informationsflöden, beställarrutiner, systemanvändning, kontaktytor, yrkesroller och så vidare. Allt detta för att skapa en flödesmappning av olika produktionsprocesser, fullt synlig i den härliga komplexitet som innebär många kontaktytor och år av effektiviseringsiterationer.

Här hade vi nu en karta med all input och output, i ett pärlband. Våra pain points lyste, och våra idéer började flöda. I två holistiska workshops lät vi medarbetare från olika hörn av organisationen delta. Vi delade gruppen i ett bildspår och ett textspår. Tillsammans landade vi i ett 20-tal usecase. Usecase är ett trendigt ord som kommer användas massor i denna text, det betyder helt enkelt användningsområden. Alla dessa usecase handlade inte om generativ AI, utan även om delar där ren maskininlärning skulle hjälpa oss vidare. Med alla dessa usecase började vi se konsekvenskedjor. Att om Case A är på plats då kan vi göra Case B och C, och när C är möjligt så kan vi koppla samman C och E. Det mesta gick att likna vid ett träd som växer. Begränsningar och inramningar av usecasen dök också upp, som till exempel att vi inte bara vill ha ett chat-gränssnitt för ChatGPT, vi vill ha format miljön så att den kontextuellt förstår var saker ska publiceras. Med allt detta i bagaget sa en medarbetare: “det är ju som ett Bonsai-träd”. Metaforen växte och bilden av Bonniers egna AI-baserade träd av AI-verktyg blev också tydligt BonsAI.

Våra målbilder från start och från de workshops vi genomförde gav oss två initiala usecase, ett spår blev Story, och det andra fick arbetsnamnet Stocky. Vi fokuserar här på Stocky usecaset eftersom det hade potential att påverka vår annonsaffär, både internt och externt.

Så hur skulle vi nu ta Stocky från idé till koncept?

Vi ställde oss frågan, kan text-till-bildmodeller producera högkvalitativa bilder passande för glansiga magasin och digitala publiceringar? Och ganska snabbt såg vi att det var möjligt men det gick inte med alla bilder, så vi formulerade om vad vi ville uppnå.

I vilka case kan vi med en bildgenerator ersätta behovet av stockbilder?

Vissa typer av miljöer och bildtyper var återkommande behov och de blev enklare att identifiera. Landskapsmiljöer och vardagsrum; miljöer med människor i centrum.

Det gick lagom bra, modellerna vi testade som start hade svårt att hantera både människor och verklighetstrogna landskap. Så vi började med att boxa och begränsa våra tester ytterligare.

Vi valde våra egna varumärkens behov som grund för de första testerna och lämnade våra externa kunder utanför. Vi bröt isär behoven för att hitta de testområden som på enklast sätt kunde utvärderas. Vi valde att begränsa vilka typer av kampanjmaterial vi ville efterlikna.

Sedan skapade vi en utvärderingsmodell av de valbara API-lösningar av AI-modeller som fanns tillgängliga, DALL·E 3, Stable Diffusion, Imagen 2 och Midjourney. Den sistnämnda saknade API men eftersom användare runt om i världen just då ansåg att denna modell höll högst standard ville vi ha med den i vår benchmarking. Vi ville jobba med API:er för att vi hade som avsikt att kunna välja själva vilka modeller som presterade bäst. Och med fördelen att om detta koncept höll för våra tester skulle vi ha en lösning där vi enkelt kunde plocka in nya AI-modeller vid behov.

I en utvärderingsmodell lät vi våra experter inom grafisk formgivning utvärdera om bilderna som vi genererade var:

  • Linjerade prompten med given bild.
  • Verklighetstrogna och realistiska
  • Verklighetstrogna och realistiskaSkandinavisk känsla och ton
  • Skandinavisk känsla och tonKänslomässigt lagom utåtagerande (lagom glada helt enkelt)
  • Känslomässigt lagom utåtagerande (lagom glada helt enkelt)

Dessa ställningstaganden ihop med en Likert-skala gav oss en uppfattning på hur väl modellerna kunde utföra jobbet.

De första slutsatserna vi kunde dra av vår utvärderingsplan var något nedslående: manuella utvärderingar tar tid, och vår ambitionsnivå på hur många tester som skulle göras blev ett hinder. Kvantitativt växte arbetsbelastningen linjärt med mängden tester som vi ansåg behövdes. Vi fick snabbt omvärdera hur stora volymer vi faktiskt skulle använda för att säkerställa att våra tester gav oss tillräckliga lärdomar att gå vidare med. Vi lärde oss också att inte övervärdera kvalitativa tester, utan istället se utvärderingsresultaten som indikationer att börja rama in vart vi var på väg.

Positivt var att testerna gav oss en tydlig bild av att modellerna kunde vara bra att använda i olika sammanhang. DALL·E var bäst på illustrationer medan Stable Diffusion gav oss verklighetstrogna bilder. Ingen kunde matcha Midjourney, men utan API var det bara en önskning av vad framtiden kanske skulle ge oss. Vi insåg att det gränssnitt vi skulle bygga skulle behöva hantera olika modeller för olika behov. När vi kombinerade bild till text, bild till bild, och text till text gav dessa tre interaktionsmöjligheter oss bäst utfall. Att snabbt kunna addera och ta bort AI-modeller i applikationen var ett måste.

Vi hade nu ett första koncept som gav oss grunden till att bygga en pilot som skulle kunna matcha användarnas behov. Istället för att leta efter en tillfredsställande illustration i en bildbank, hade vi nu ett upplägg för att kunna generera bilderna själva.

Piloten satte vi upp i Streamlit, ett enkelt gränssnitt där vi kunde tillgängliggöra verktyget för en grupp användare och börja testa om våra läsare tyckte att annonserna med genererade bilder var mer intressanta att klicka på.

Vi valde att göra ett test med Expressens erbjudande som första utgångsläge. Ett original från en bildbank, och tre AI-genererade bilder. Allt annat lika.

KPI för testet var click through rate. Alla annonser med en AI-genererad bild gav bättre testresultat än originalet. Version D gav högst resultat och det med råge. Är då vad testet säger en sanning? Absolut inte — men vi såg förutsättningen att väldigt snabbt göra 4 kreativ istället för bara ett. Vi såg, utöver vår önskan att hitta mer relevanta bilder, också att möjligheten till att snabbt skapa variation, vilket ger en positiv effekt då algoritmer i olika annonsplattformar premierar kampanjer med variationsmöjligheter.

I slutet på december månad stängde vi ner våra tester och olika utvärderingar. Vi bestämde utifrån dessa att vi ska bygga ett gränssnitt för våra medarbetare där de kan skapa mer relevant innehåll för våra kommande kampanjer.

I januari hade vi vår första utvecklare på plats, och i slutet på februari började vi lansera en skarp applikation inom ramen för vårt BonsAI, ett första verktyg baserat på generativ AI för vår kommersiella verksamhet: Stocky.

Nu känns februari som historia, som om årtionden har passerat: AI-modeller har utvärderats, tillkommit och tagits bort. Vi har över 200 användare, vi har börjat onboarda fler verksamhetsområden och fler medarbetare, alla har ett behov av en relevant bild för rätt format.

Vi kommer aldrig ersätta närvaron av fotografer som fångar verkligheten som den är, men i de fall, när verkligheten behöver färgsättas av inslag som matchar berättandet i olika sammanhang så ger detta oss fantastiska möjligheter.

Stannar resan här?

Vi har precis börjat.

--

--

Kristina Magnusson
Bonnier News Tech
0 Followers
Writer for

Product Owner BonsAI and Operation Manager at Bonnier News.