Jeg bliver så glad for at vi har folk som @rasmusfleischer til at gøre vores LLM-forurenede samtid mere forståelig.
-
Jeg bliver så glad for at vi har folk som @rasmusfleischer til at gøre vores LLM-forurenede samtid mere forståelig. Der er tætpakket med interessante facts, analyser og idéer i det her oplæg og meget sigende er det som om han selv er ved at briste af grin hele tiden, fordi den kulturelle overproduktion er så absurd: https://www.youtube.com/watch?v=8f0UP5XhxQQ #llmbubble
-
Jeg bliver så glad for at vi har folk som @rasmusfleischer til at gøre vores LLM-forurenede samtid mere forståelig. Der er tætpakket med interessante facts, analyser og idéer i det her oplæg og meget sigende er det som om han selv er ved at briste af grin hele tiden, fordi den kulturelle overproduktion er så absurd: https://www.youtube.com/watch?v=8f0UP5XhxQQ #llmbubble
Jeg havde ikke hørt begrebet om indavl i sammenhæng med LLM-modeller før, men det giver jo god mening. I dag er langt størstedelen af al tekst på internettet genereret af LLM. Så nye modeller kæmper med at finde "kvalitetsmateriale" at træne sig på. (Igen viser logikken hvor absurd det hele er).
-
Jeg havde ikke hørt begrebet om indavl i sammenhæng med LLM-modeller før, men det giver jo god mening. I dag er langt størstedelen af al tekst på internettet genereret af LLM. Så nye modeller kæmper med at finde "kvalitetsmateriale" at træne sig på. (Igen viser logikken hvor absurd det hele er).
@malte Så er det godt, der stadig er rigtige mennesker som skriver updates på de sociale medier, LLM-producenterne ejer eller har købt adgang til. /s
-
Jeg havde ikke hørt begrebet om indavl i sammenhæng med LLM-modeller før, men det giver jo god mening. I dag er langt størstedelen af al tekst på internettet genereret af LLM. Så nye modeller kæmper med at finde "kvalitetsmateriale" at træne sig på. (Igen viser logikken hvor absurd det hele er).
@malte spændende. Glæder mig til at lytte til det.
Selv med duck Duck go uden AI svar er det svært at ikke finde relevant information som ikke er ikke er sprogmodels vrøvl. Hvad er alle disse siders forretningsmodel? Mange af dem har ikke synlige reklamer. Giver de information videre til reklame sider eller hvad foregår der?
-
@malte Så er det godt, der stadig er rigtige mennesker som skriver updates på de sociale medier, LLM-producenterne ejer eller har købt adgang til. /s
@haverholm Hvordan kan crawlerne skelne? Hvis rigtige mennesker producerer 0,1% af al tekst på internettet i dag, vil et lignende misforhold gøre sig gældende på sociale medier.
-
@malte spændende. Glæder mig til at lytte til det.
Selv med duck Duck go uden AI svar er det svært at ikke finde relevant information som ikke er ikke er sprogmodels vrøvl. Hvad er alle disse siders forretningsmodel? Mange af dem har ikke synlige reklamer. Giver de information videre til reklame sider eller hvad foregår der?
@siggi Han kommer forbi det i oplægget (Rasmus er økonomihistoriker).
-
@haverholm Hvordan kan crawlerne skelne? Hvis rigtige mennesker producerer 0,1% af al tekst på internettet i dag, vil et lignende misforhold gøre sig gældende på sociale medier.
@malte Risikoen er da, at de sociale medier også er overrendt af "AI"-opdateringer. Jeg har ikke været på f eks Meta-platforme eller LinkedIn i 10-15 år. Særligt den sidste kan jeg forestille mig er helt håbløs nu.
Men Facebook er jo desværre stadig en platform hvor folk har personlige kontakter og samtaler. Det samme gælder i et vist omfang Gmail og Office365. Mon ikke deres respektivt tilknyttede LLM-modeller kan identificere og filtrere egen spækproduktion fra?
-
@malte Risikoen er da, at de sociale medier også er overrendt af "AI"-opdateringer. Jeg har ikke været på f eks Meta-platforme eller LinkedIn i 10-15 år. Særligt den sidste kan jeg forestille mig er helt håbløs nu.
Men Facebook er jo desværre stadig en platform hvor folk har personlige kontakter og samtaler. Det samme gælder i et vist omfang Gmail og Office365. Mon ikke deres respektivt tilknyttede LLM-modeller kan identificere og filtrere egen spækproduktion fra?
@haverholm Jo, det er den fase vi er inde i nu. Lidt ligesom vi har haft brug for AI tidligere til at skelne spam fra rigtig email.
-
@haverholm Jo, det er den fase vi er inde i nu. Lidt ligesom vi har haft brug for AI tidligere til at skelne spam fra rigtig email.
@malte Mere on point, crawlers som leder over hele nettet har selvfølgelig sværere vilkår for at filtrere indholdet end interne platformsalgoritmer, der har 10-20 års lagrede samtaler og updates at sammenligne med.
De store corporate netværk og deres brugerdatafarme har igen en stor fordel, set fra et analytisk, invasivt perspektiv.
-
Jeg havde ikke hørt begrebet om indavl i sammenhæng med LLM-modeller før, men det giver jo god mening. I dag er langt størstedelen af al tekst på internettet genereret af LLM. Så nye modeller kæmper med at finde "kvalitetsmateriale" at træne sig på. (Igen viser logikken hvor absurd det hele er).
Hvis LLM rent faktisk var i stand til at bruge sandhed som kriterie for sine udtalelser, så ville det ikke være noget problem at træne nye modeller på eksisterende LLM-tekst. Hver iteration ville jo introducere sine egne nye erkendelser og indsigter. Og næste iteration ville så kunne bygge videre på dem, så mængden af sandhed stiger.