Gammel humle i fryseren vs ny humle

JEG

Moderator
Brülosophy har nettopp kommet ut med en video hvor man sammenliner gammel humle (fra fryseren) med ny;
Mange mener vel mangt om Brülosophy, men både tema og funn er interessant.

Like interessant er hva folket på forumet mener; står gammel (og godt oppbevart) humle seg mtp aroma?
 
Brülosophy har nettopp kommet ut med en video hvor man sammenliner gammel humle (fra fryseren) med ny;
Mange mener vel mangt om Brülosophy, men både tema og funn er interessant.

Like interessant er hva folket på forumet mener; står gammel (og godt oppbevart) humle seg mtp aroma?
Har nesten fasit på den. Har hatt en lengre bryggepause på 3år, første brygg ferdig ble en "Reste IPA" med hummer og kanari fra frysa. Vært veldig nøye med humla, kun åpnet ,vakumert og rett i frysa. Bitterhet som kalkulert ca. 15% ned, aroma nesten borte, smak nesten ok. 5-6år gammel 3-4 av de i frysa mi
 
Brülosophy har nettopp kommet ut med en video hvor man sammenliner gammel humle (fra fryseren) med ny;
Mange mener vel mangt om Brülosophy, men både tema og funn er interessant.

Like interessant er hva folket på forumet mener; står gammel (og godt oppbevart) humle seg mtp aroma?
Ja, jeg har i alle fall ingen grunn til å mene at man må ha ferskest mulig humle. Men det er vrient å vite noe. Det er jo ikke bare alfasyreinnholdet som varierer fra år til; det gjelder like mye for de andre smaks- og aromakomponentene. Og dessuten spiller "terroir" - voksested - en stor rolle. Og høstingstidspunkt. Og værforhold det aktuelle året. Og sjøl om nesten alt er tilsynelatende likt, så er det forskjeller mellom batcher fra samme produsent samme år. Jeg trur det var Michael Tonsmeire som sa at de - dvs. Sapwood Cellars - ikke var store nok til å få velge blant de beste batchene; de måtte ta det de fikk. Og han skulle gjerne kunnet velge.

Jeg vil si at det virker veldig sannsynlig at det var en merkbar forskjell mellom de to bryggene i testen der. Det var ikke tilfeldig at testeren traff de fire etter den første missen. Men at det er en forskjell, er ikke spesielt overraskende, gitt alle de mulige årsakene til forskjeller mellom to humler av samme slag. Det som vel er bortimot umulig, er å fastslå hvilken av de mulige årsakene som faktisk var den aktuelle årsaken - eller for den sakens skyld om det var flere som samvirka.
 
Sist redigert:
Brülosophy har nettopp kommet ut med en video hvor man sammenliner gammel humle (fra fryseren) med ny;
Mange mener vel mangt om Brülosophy, men både tema og funn er interessant.

Like interessant er hva folket på forumet mener; står gammel (og godt oppbevart) humle seg mtp aroma?
Jeg synes disse exbeerimentene er morsom lesning, og jeg synes Martin Keen er en veldig god formidler på kamera. Jeg har sikkert sett alle videoene hans fra The Homebrew Challenge.

Som Finn er inne på, så synes jeg denne videoen demonstrerer en en problemstilling ved hvordan Brülosophy og andre aktører* bruker statistikk. Fordi, jeg er helt sikker på at Martin og de fleste av de ni i testen som valgte riktig, faktisk smakte en forskjell. Slik som de demonstrerer i slutten av videoen. For populasjonen i testen er konklusjonen at det ikke er av betydning, men for de ni som smakte forskjell så kan det være en betydelig forskjell på disse ølene.

*Dette er vel så vidt jeg vet en vanlig metode for produsenter å teste om markedet merker endringer i en oppskrift/produkt. Bla Coca Cola og Pepsi i USA har gått over til å bruke «high fructose corn sirup» i produksjonen av brus i stedet for sukker. Jeg bodde i USA en liten periode, og vi kjøpte da Coca Cola importert fra Mexico, hvor den ble produsert med sukker. Det var en veldig tydelig forskjell på de to drikkene, selv om statistikken tilsa at flertallet av populasjonen ikke merket forskjell. Nå er det sikkert andre ting også som bidrar til forskjellig smaksbilde, men det som ikke er av betydning i en populasjon kan bety mye for den enkelte.
 
Jeg synes disse exbeerimentene er morsom lesning, og jeg synes Martin Keen er en veldig god formidler på kamera. Jeg har sikkert sett alle videoene hans fra The Homebrew Challenge.

Som Finn er inne på, så synes jeg denne videoen demonstrerer en en problemstilling ved hvordan Brülosophy og andre aktører* bruker statistikk. Fordi, jeg er helt sikker på at Martin og de fleste av de ni i testen som valgte riktig, faktisk smakte en forskjell. Slik som de demonstrerer i slutten av videoen. For populasjonen i testen er konklusjonen at det ikke er av betydning, men for de ni som smakte forskjell så kan det være en betydelig forskjell på disse ølene.

*Dette er vel så vidt jeg vet en vanlig metode for produsenter å teste om markedet merker endringer i en oppskrift/produkt. Bla Coca Cola og Pepsi i USA har gått over til å bruke «high fructose corn sirup» i produksjonen av brus i stedet for sukker. Jeg bodde i USA en liten periode, og vi kjøpte da Coca Cola importert fra Mexico, hvor den ble produsert med sukker. Det var en veldig tydelig forskjell på de to drikkene, selv om statistikken tilsa at flertallet av populasjonen ikke merket forskjell. Nå er det sikkert andre ting også som bidrar til forskjellig smaksbilde, men det som ikke er av betydning i en populasjon kan bety mye for den enkelte.
Problemet mitt med akkurat denne testen består i designet; jeg trur rett og slett ikke det er mulig å teste det de var ute etter å teste, fordi det er så mange andre variabler til stede. Det er ikke mulig å isolere alder og teste bare den.

Jeg har stor sans for brülosofene, og jeg mener at de stort sett har vist at detaljer som har blitt sett på som veldig viktige, faktisk gir langt mindre utslag enn vi har trodd. For store bryggerier, som har utstyr til å holde de aller fleste variabler under steinhard kontroll, og som dessuten trenger å kunne reprodusere smak og aroma i ølene sine, kan det være meningsfullt å være veldig nøyaktige med alt, men for oss hjemmebryggere er det ikke det. Vi har uansett ingen mulighet til å ha kontroll på alle variabler, og det er ikke nødvendigvis så viktig å få nøyaktig samme smak hver gang, heller. Jeg mener vi rett og slett bør lære oss å slappe litt mer av, sjøl om det så klart er noen detaljer vi ikke skal ta lett på.

Jeg mener metoden brülosofene bruker er helt grei. Det kan være et problem om noen tolker mer ut av resultatene enn det det er rom for, men det er jo ikke brülosofenes feil. Marshall Schott er veldig klar på at det ikke er snakk om å bevise noe som helst. Testene sier bare at det enten er, eller ikke er, statistisk grunnlag for å si at testpersonene faktisk oppfatta ulikhet mellom de to bryggene. Men det må vi til gjengjeld gå med på at de faktisk gjorde/ikke gjorde. En helt annen sak er hva man skal legge i det. Det blir i alle fall helt feil om man kritiserer brülosofene ut fra en forestilling om at de prøver å bevise noe.

Jeg veit ikke så mye om hvordan de testpanelene bryggeriene bruker, jobber. Men jeg er nokså sikker på at de ville finne forskjeller mellom de to bryggene i veldig mange exbeerimenter der resultatet var negativt. Det er jo helt åpenbart forskjeller, så det er bare et spørsmål om hvor lett det er å kjenne dem - og det er det som faktisk testes.

Så kan man alltid kritisere enkelte tester for dårlig design. F.eks. skjønte jeg ikke hvorfor de, når de skulle teste om det var noen forskjell på wienermalt og en blanding av pilsnermalt og münchnermalt, ikke brygga to øl med bare disse malttypene, men i stedet la inn en god dose krystallmalt.
 
Jeg synes disse exbeerimentene er morsom lesning, og jeg synes Martin Keen er en veldig god formidler på kamera. Jeg har sikkert sett alle videoene hans fra The Homebrew Challenge.

Som Finn er inne på, så synes jeg denne videoen demonstrerer en en problemstilling ved hvordan Brülosophy og andre aktører* bruker statistikk. Fordi, jeg er helt sikker på at Martin og de fleste av de ni i testen som valgte riktig, faktisk smakte en forskjell. Slik som de demonstrerer i slutten av videoen. For populasjonen i testen er konklusjonen at det ikke er av betydning, men for de ni som smakte forskjell så kan det være en betydelig forskjell på disse ølene.

*Dette er vel så vidt jeg vet en vanlig metode for produsenter å teste om markedet merker endringer i en oppskrift/produkt. Bla Coca Cola og Pepsi i USA har gått over til å bruke «high fructose corn sirup» i produksjonen av brus i stedet for sukker. Jeg bodde i USA en liten periode, og vi kjøpte da Coca Cola importert fra Mexico, hvor den ble produsert med sukker. Det var en veldig tydelig forskjell på de to drikkene, selv om statistikken tilsa at flertallet av populasjonen ikke merket forskjell. Nå er det sikkert andre ting også som bidrar til forskjellig smaksbilde, men det som ikke er av betydning i en populasjon kan bety mye for den enkelte.
Hvis 2/3 smaker forskjell, vil siste 1/3 treffe i 1/3 av tilfellene. Man er da oppe i grensen for statistisk signifikans.
Problemet med metoden er at den er boolsk, enten er det mulig å smake forskjell eller ikke. I tillegg påviser testen om man si noe med en (feks 95%) sikkerhetsmargin. Større testgruppe vil gi høyere sikkerhet, (mindre grad av tilfeldige avvik).
Én av problemene med metoden er hvis én liten andel av befolkningen smaker markant forskjell, (som feks med koriander).
Videre forutsetter metoden blindtesting. Man må lete etter en ukjent faktor, som er vanskeligere enn å identifisere en kjent faktor, (gå inn i ett rom og finn en vilkårlig ting som er flyttet på kontra gå inn i ett rom og finn én spesifikk ting). Fokuserer vi oppmersomheten på én faktor, skjerpes sans/identifiseringsevne).
Men tar man utgangspunkt i samme type kontekst som testen presenterer, (feks servere øl for en gjeng venner), er den nyttig.

Edit: skrev samtidig som Finn. Hjertelig enig i det du skriver :)
 
Hvis 2/3 smaker forskjell, vil siste 1/3 treffe i 1/3 av tilfellene. Man er da oppe i grensen for statistisk signifikans.
Problemet med metoden er at den er boolsk, enten er det mulig å smake forskjell eller ikke. I tillegg påviser testen om man si noe med en (feks 95%) sikkerhetsmargin. Større testgruppe vil gi høyere sikkerhet, (mindre grad av tilfeldige avvik).
Én av problemene med metoden er hvis én liten andel av befolkningen smaker markant forskjell, (som feks med koriander).
Videre forutsetter metoden blindtesting. Man må lete etter en ukjent faktor, som er vanskeligere enn å identifisere en kjent faktor, (gå inn i ett rom og finn en vilkårlig ting som er flyttet på kontra gå inn i ett rom og finn én spesifikk ting). Fokuserer vi oppmersomheten på én faktor, skjerpes sans/identifiseringsevne).
Men tar man utgangspunkt i samme type kontekst som testen presenterer, (feks servere øl for en gjeng venner), er den nyttig.

Edit: skrev samtidig som Finn. Hjertelig enig i det du skriver :)
Et problem med et såpass lite utvalg som de bruker, er vel at det ikke skal så mye til for å få en falsk positiv test? Jeg kan ikke statistikk, men har det for meg at det er vanskeligere å feil resultat andre veien - eller er det en misforståelse?

Det med at noen smaker noe veldig sterkt - eller eventuelt ikke smaker det - gjør vel at det er visse tester det er meningsløst å prøve å gjennomføre - i alle fall uten å ha et vesentlig større utvalg testpersoner. Det sies at 25% er ufølsomme for diacetyl, f.eks., så å teste for diacetyl uten å ha forsikra seg om at ingen i panelet har den egenskapen, vil ikke være så smart. Og forsikrer man seg om det, har man samtidig fortalt testpersonene at dette har noe med diacetyl å gjøre:). (Har du et stort nok utvalg, kan du vel korrigere for de 25 prosentene?)

Ellers er det vel sånn at terskelen for å oppfatte et smaksstoff varier en del fra person til person for alle stoffer?
 
Et problem med et såpass lite utvalg som de bruker, er vel at det ikke skal så mye til for å få en falsk positiv test? Jeg kan ikke statistikk, men har det for meg at det er vanskeligere å feil resultat andre veien - eller er det en misforståelse?

Det med at noen smaker noe veldig sterkt - eller eventuelt ikke smaker det - gjør vel at det er visse tester det er meningsløst å prøve å gjennomføre - i alle fall uten å ha et vesentlig større utvalg testpersoner. Det sies at 25% er ufølsomme for diacetyl, f.eks., så å teste for diacetyl uten å ha forsikra seg om at ingen i panelet har den egenskapen, vil ikke være så smart. Og forsikrer man seg om det, har man samtidig fortalt testpersonene at dette har noe med diacetyl å gjøre:). (Har du et stort nok utvalg, kan du vel korrigere for de 25 prosentene?)

Ellers er det vel sånn at terskelen for å oppfatte et smaksstoff varier en del fra person til person for alle stoffer?
Disclaimer: jeg strøk i statistikk 2 ganger (på UNI) før jeg besto. (mest fordi jeg syntes det var et usannsynlig kjedelig fag), så jeg er knapt nok noen autoritet.
Men, ja, med ett lite utvalg, vil usikkerheten øke, (eller eg. validiteten synke). Men fordi man har 3 prøver man tester mot, øket sikkerheten, (kun 33% sjanse for å tippe riktig). Og som du skriver, hvis man kjenner til en skjevfordeling, (feks at ett kjent utvalg av befolkningen er sensitive, eller motsatt), kan dette justeres ved vekting. Dette gjøres ikke i disse testene. Så testen sier eg. «Gitt at vi ikke ved noe om deg, er det så og så sannsynlig at du kan merke forskjell», hvis testen er positiv, (dvs at man «med 95% sikkerhet kan si at det er en forskjell). En negativ test sier lite, (medmindre man måler mot at man treffer nærme en normalfordeling). Hvis 1/3 plukker riktig, kan det være en sterkere indikator på at det er ett tilfeldig utvalg. Men hvis feks 90% velger riktig, er det ganske usannsynlig at det er pga tilfeldighet, (selv om det er begrenset med deltagere. Slår du en terning 12 ganger, er det lite sannsynlig å slå 80% 5ere og 6ere. Men det skjer. Jeg har slått yatzi på ett kast.
Videre, skjevfordelinget, (si feks 10% er sensitive), blir «gjemt» i det tilfeldige utvalget, og i større grad når utvalget er lite.
 
Ser ut som humla fra 2017 ikke var vakuumert, mulig det hadde noe å si. Kastet selv noe "gammel" humle fra Yakima som hadde sluppet inn luft...
 
Finnes det surølbryggere? :p

Kanskje et sidespor men leste/hørte om et bryggeri som foretrakk "gammel/oksidert" Galaxy da den runder seg ut noe, ikke er så potent
Vel, surøl er ikke helt presis, da. Lambic, wild/mixed/spontanous fermentations, brett, ….
 
Disclaimer: jeg strøk i statistikk 2 ganger (på UNI) før jeg besto. (mest fordi jeg syntes det var et usannsynlig kjedelig fag), så jeg er knapt nok noen autoritet.
Men, ja, med ett lite utvalg, vil usikkerheten øke, (eller eg. validiteten synke). Men fordi man har 3 prøver man tester mot, øket sikkerheten, (kun 33% sjanse for å tippe riktig). Og som du skriver, hvis man kjenner til en skjevfordeling, (feks at ett kjent utvalg av befolkningen er sensitive, eller motsatt), kan dette justeres ved vekting. Dette gjøres ikke i disse testene. Så testen sier eg. «Gitt at vi ikke ved noe om deg, er det så og så sannsynlig at du kan merke forskjell», hvis testen er positiv, (dvs at man «med 95% sikkerhet kan si at det er en forskjell). En negativ test sier lite, (medmindre man måler mot at man treffer nærme en normalfordeling). Hvis 1/3 plukker riktig, kan det være en sterkere indikator på at det er ett tilfeldig utvalg. Men hvis feks 90% velger riktig, er det ganske usannsynlig at det er pga tilfeldighet, (selv om det er begrenset med deltagere. Slår du en terning 12 ganger, er det lite sannsynlig å slå 80% 5ere og 6ere. Men det skjer. Jeg har slått yatzi på ett kast.
Videre, skjevfordelinget, (si feks 10% er sensitive), blir «gjemt» i det tilfeldige utvalget, og i større grad når utvalget er lite.
hehe - jeg detter fort av når det blir teknisk:).

Men uansett; i tillegg til sjølve det statistiske resultatet stiller de jo ofte oppfølgingsspørsmål til deltakerne, og ikke minst tester de seg sjøl, og det synes jeg ofte er ei hjelp til å vurdere resultatet.
 
Tilbake
Topp