Summary Meten & Diagnostiek 3: Indiiduele en organisatiediagnose

-
252 Flashcards & Notes
0 Students
  • This summary

  • +380.000 other summaries

  • A unique study tool

  • A rehearsal system for this summary

  • Studycoaching with videos

Remember faster, study better. Scientifically proven.

This is the summary of the book "Meten & Diagnostiek 3: Indiiduele en organisatiediagnose". The author(s) of the book is/are J Ostrom, colleges. This summary is written by students who study efficient with the Study Tool of Study Smart With Chris.

Summary - Meten & Diagnostiek 3: Indiiduele en organisatiediagnose

  • 1 Inleiding, Betrouwbaarheid en Validiteit

  • Van welke 4 punten moet een diagnosticus kennis hebben?
    1 Inhoud (theorieen enz.)
    2 Testtheorie (statistiek enz.)
    3 Beschikbare methoden en tests
    4 Besliskunde
  • COTAN (commissie testaangelegenheden Nederland) is een onderdeel van het Nederlands Instituut van Psychologen (NIP). Het beoordeeld de kwaliteit van testaangelegenheden a.d.h.v. criteria, deze zijn ontleend aan de klassieke testtheorie. Omschrijf de 6 criteria:

    1 Uitgangspunten testconstructie
    2 Kwaliteit testmateriaal en handleiding
    3 Normen (met welke groep wordt je score vergeleken)
    4 Betrouwbaarheid
    5 Begripsvaliditeit
    6 Criteriumvaliditeit

  • Definieer betrouwbaarheid: (Ter Laak & De Goede)
    Betrouwbaarheid is de consistentie van metingen als de testprocedure herhaald wordt bij een persoon of bij een steekproef. 
  • Een tweede meting is nooit identiek, dus de betrouwbaarheid kan nooit 100% zijn. Geef en verklaar de formule van betrouwbaarheid:
    X = T + E
    X = de geobserveerde score (de testscore)
    T = de ware score (wordt o.b.v. test geconcludeerd)
    E = errorvariantie

    T is niet bekend. Veranderingen in T worden veroorzaakt door vernaderingen in ware scores (bijv. omdat de testpersoon verandert). Als het verschil in X bij herhaalde metingen klein is, is de test betrouwbaar.
  • Hoe komt het dat de tweede meting nooit identiek is? (2)
    1 Door errorvariantie:
    -Het zijn toevallige meetfouten (fluctuaties aandacht, fitheid, concentratie, omgevingverandering, observatoren).
    -Systematische meetfouten
    2 Door veranderingen in T
  • Wat meet het betrouwbaarheidsinterval (BI) en wat geeft het aan?
    Wat zegt een testscore? Scoor ik de volgende keer niet heel anders? Het BI geeft de grenzen aan waarbinnen met een bepaald kanspercentage mag worden aangenomen dat bij een volgende meting de score zal liggen.
    Oftewel: Het BI geeft de grenzen aan waarbinnen met een bepaald percentage aan zekerheid mag worden aangenomen dat bij een volgende meting dezelfde score gehaald zal worden.
  • Wat heb je nodig voor de formule van het BI?

    De formule berekent de ware score (T), hier heb je het volgende voor nodig:
    1 De ruwe score van de client (X)
    2 Het gemiddelde van de normgroep (m)
    3 De betrouwbaarheid van de gebruikte test (Rxx)

    De formule is: T = (X - m) * Rxx + m

  • Omschrijf de formule van het BI en leg dit uit:
    BI = T +/- SE

    Je moet het aftrekken voor de ondergrens en optellen voor de bovengrens.

    - 1 SE: de kans is 68% dat de score de volgende keer binnen het interval valt
    - 2 SE: de kans is 95% dat de score de volgende keer binnen het interval valt
  • Voor het BI heb je ook de standaardmeetfout (SE) nodig. Wat is dit en hoe reken je het uit?

    De standaardmeetfout (SE) is de SD van ruwe scores rond de ware scores (SD van meetfouten). Het is voor iedere persoon gelijk.

    Je hebt het volgende nodig voor SE:
    1 De SD van de test
    2 De betrouwbaarheid van de gebruikte test (Rxx)

    BI is de volgende formule:
    SE = SD * V(1 - Rxx)

    V = wortel

  • Voorbeeld BI: Edward scoort een 5 op het tentamen M&D. Als hij niet harder leer, welke score zal hij de volgende keer dan halen?

    M = 7
    SD = 1,5
    Rxx = .80

    T = (X - M) * Rxx + m = T = (5-7) * .80 + 7 = 5.4

    SE = SD * V(1 - Rxx) = SE (1.5 * V(1 - .80) = 0.7

    68% BI = T +/- SE = 4.7 - 6.1

    Zijn cijfer ligt dus tussen een 4.7 en een 6.1 (met 68% zekerheid)

  • Wat is de betrouwbaarheidscoefficient? (Rxx)

    De proportie van de variantie in scores die berust op de variantie in de ware scores.  Hoe dichterbij 1, hoe beter.

     
  • Wat zijn de 4 belangrijkste soorten betrouwbaarheidscoefficienten?

    1 Parallelle vormen (correlatie tussen 2 afnamen)
    2 Test-hertest (correlatie tussen 2 afnamen)
    3 Interne consistentie (coefficient alfa: wordt het meeste gebruikt)
    4 Generaliseerbaarheidstheorie: combinatie van alle coefficienten

  • Omschrijf de coefficient alfa:
    Het berust op:
    - Een enkele afname van de test (het kan dus na 1 afname al berekend worden)
    - De relaties tussen de items en het aantl items

    Het is de volgende formule (wordt gegeven op het tentamen)
    K * r / (1 + (K - 1) * r
    K = het aantal items
    r = de gemiddelde correlatie tussen items
  • Geef een voorbeeld van de coefficient alfa (zie afbeelding)
    3 * .50 / (1 + (3-1) * .50 = 1.50 / (1 + 1.00) = 0.75
  • Wat is het kritiek van Schmitt op de coefficient alfa?
    Het wordt verward met homogeniteit (unidimensionality). Je moet bij een multidimensionale schaal een ander type coefficient gebruiken. Daarnaast neem de coefficient alfa toe als functie van testlengte (dus als je K, het aantal items, verhoogt, dan wordt de CA automatisch ook hoger).
  • Hoge alfa > een homogene schaal (eendimensionaal). Maar dit hoeft niet het geval te zijn. Schaal kan ook meerdere dimensies hebben. Bijv. in het plaatje: beide alfa's zijn hetzelfde, terwijl er een verschillende aantal dimensies gemeten worden. Je kunt de alfa alleen gebruiken bij eendimensionale testen. Kijk dus niet alleen naar de alfa, maar ook naar de structuur.

  • Het gebeurt soms dat als de test langer wordt (er worden meer items toegevoegd), dat de alfa ook hoger wordt. Dit is niet correct. Dus de testlengte is van invloed. Gebruik de lengte dus niet als excuus bij bijv. een lage alfa.
  • Hoe hoog moet volgens COTAN de betrouwbaarheid zijn?
    Bij belangrijke beslissingen:
    -Rxx < .80 = onvoldoende
    -Rxx tussen .80 en .90 = voldoende
    -Rxx > .90 (gelijk aan of groter dan) = goed.
    Bij minder belangrijke beslissingen kan .70 of .60 als ondergrens gehanteerd worden.
  • Definieer validiteit?
    De steun voor de gevolgtrekkingen uit testscores en andere methoden van assessment met het oog op een specifiek doel (Ter Laak & De Goede)
  • Welke 4 vormen van validiteit zijn er?
    1 Face validity
    2 Inhoudsvaliditeit
    3 Begripsvaliditeit (construct validity)
    4 Criterium of predictieve validiteit
  • Wat is face validity?
    Wat meet de test op het eerste gezicht? Denkt men op het eerste gezicht dat het werkt?
  • Wat is inhoudsvaliditeit?
    Dekt de test het domein van kennis/vaardigheid/gedrag? Het is gebaseerd op oordelen van experts. (Het is niet statistisch aangetoond, experts beoordelen of het domein wordt gedekt).
  • Wat is begripsvaliditeit?
    1 Meet de test wat het beoogt te meten?
    2 Interne structuur: aantal dimensies en scoreverschillen tussen groepen
    3 Externe structuur:
    - Convergente validiteit (correlatie met construct dat wel zou moeten samenhangen)
    -Divergente validiteit (correlatie met construct dat niet zou moeten samenhangen, oftewel: is het verbonden met scores op andere tests?).
  • De multimethod-multitrait matrix (Campbell & Fiske) is een methode om de begripsvaliditeit te meten. Leg deze matrix uit.

    Zie afbeelding. Het zijn verschillende soorten metingen (= indicatoren) voor eenzelfde construct. Er worden 2 vragen gesteld: werd er gemeten volgens dezelfde methode? Is het een meting van hetzelfde construct (trek)?

  • Wat wordt gemeten met criteriumvaliditeit?

    In welke mate de test een bepaald criterium (bijv. werkprestatie) voorspelt. Zie afbeelding. De betrouwbaarheid geeft de bovengrens van de criteriumvaliditeit aan.

  • Leg het verschil uit tussen validiteit en betrouwbaarheid:

    Zie afbeelding. Het meet 2 andere dingen, maar is wel afh. van elkaar. Maximale criteriumvaliditeit = de wortel van Rxx. Dus als Rxx = .70, dus is de max. criteriumvaliditeit de wortel van .70 = .84. Dus: een test die niet betrouwbaar is, kan niets voorspellen

  • Correctie voor attenuatie is een vorm van validiteitscorrectie.  Omschrijf deze correctie voor attenuatie:
    Metingen van predictor en criterium zijn niet betrouwbaar. Hierdoor wordt validiteit onderschat. Wanneer de metingen wel betrouwbaar zijn, moet de validiteit berekend worden.
    Correctie voor attenuatie (verzwakking) is een statistische procedure om een correlatiecoefficient te ontdoen van het verzwakkende effect van meetfouten.

    Attenuatie: de correlatie tussen de geobserveerde scores is altijd kleiner dan (of gelijk aan) de correlatie van de true scores. Meetfouten hebben tot gevolg dat de correlatie tussen twee tests/metingen lager uitvalt dan de werkelijke correlatie.
  • Licht convergente en divergente validiteit verder toe?
    Convergent: kunnen we de verwachte verbanden aantonen?
    Divergent: zijn die verbanden die er niet mogen zijn er ook echt niet?
    > Lage correlatie = hoge/goede validiteit.
    (Dit heeft te maken met de MultiTrek NultiMethode Matrix van Campbell & Fiske)
  • Geef de formule van correctie voor attenuatie weer en leg deze verder uit:
    Zie afbeelding.
  • Een andere validiteitscorrectie is de correctie voor 'restriction of range'. Licht dit toe.
    Wanneer je de beste uit de groep selecteert, krijg je een vertekend beeld. Dus corrigeer door validiteitscorrectie/restriction of range.
  • Geef de formule weer van de validiteitscorrectie (restriction of range?)
    Zie afbeeldingen.
  • Wat is validiteitsgeneralisatie?
    Variantie in correlatiecoefficienten veroorzaakt door artefacten (administratieve fouten, onvolledige data, fouten in scoring, te kleine steekproef, ontbreken van validiteitscorrecties)
  • Wat zijn de 2 kritieken m.b.t. validiteitsgeneralisatie?
    1 Sommige artefacten zijn niet onafhankelijk van de situatie
    2 'File drawer probleem' (te veel onderzoeken naar 1 probleem, maar veel onderzoeken worden niet gepubliceerd. Dus je mist informatie over onderzoeken, dit levert een vertekend beeld op.
  • Op basis van validiteitsgeneralisatie kunnen we zeggen dat cognitieve capaciteitentests .50 correleren met werkprestatie. Maar de vraag is dus of dit voor elke cognitieve capaciteiten test geldt.
  • Wat is kruisvalidering/cross validation? (2)
    1. Je moet een test opnieuw valideren in een tweede steekproef (sluit aan bij onderzoek Locke 29 studenten, dat bijv. langere studenten minder charmant waren). Je moet dus altijd een 2e onderzoek doen, om je test opnieuw te valideren. Dit is belangrijk bij: kleine samples en veel relaties.
    2. De mate van shrinkage geeft de generaliseerbaarheid van de gevonden resultaten aan. Shrinkage = als je kruisvalideert neemt de voorspellende waarde af. Dus je coefficient 'shrinkt' (neemt af). Bij weinig shrinkage heb je de juiste validiteit.
    r = correlatie
  • Hoe hoog met validiteit zijn?
    Significantie is niet voldoende.
    Volgens Cohen: r = .10 is laag
    r = .30 is gemiddeld
    r = .50 is hoog
  • Leg in eigen woorden het verschil uit tussen betrouwbaarheid en validiteit en hoe deze begrippen aan elkaar gerelateerd zijn.
    Betrouwbaarheid betreft de consistentie van metingen als de testprocedure herhaald wordt bij een persoon of bij een steekproef. Validiteit betreft de steun voor de gevolgtrekkingen uit testscores met het oog op een specifiek doel. Meestal wordt hiermee bedoeld of de testscores iets zeggen over het construct dat beoogd wordt te meten en/of in welke mate de testscores een beoogd criterium voorspellen.

    De betrouwbaarheid van een testprocedure bepaalt de bovengrens van de correlatiecoëfficiënt die gevonden kan worden tussen de test en het criterium.
  • Waarom is voor sommige tests de coëfficiënt alfa geen geschikte betrouwbaarheidsmaat?
    Voor tests die meerdere dimensies bevatten is de coëfficiënt alfa geen geschikte maat voor de
    betrouwbaarheid. Ook voor tests die een tijdslimiet hebben is coëfficiënt alfa ongeschikt. Testhertest of paralleletest betrouwbaarheidscoëfficiënten zijn meer geschikt voor deze tests.
  • Alice heeft een schaal ontwikkeld bestaande uit 5 items om emotionele intelligentie te meten. Zie de afbeelding.

    a) Bereken de coëfficiënt alfa voor de schaal.
    K = 5, r = 0.25
    Alfa = K*r/(1+(K-1)*r) = 5*.25/(1+4*0.25) =
    Alfa = 1.25/(1+1) = 0.63
  • Alice heeft een schaal ontwikkeld bestaande uit 5 items om emotionele intelligentie te meten. Zie de afbeelding.

    De alfa is .63
    b) Hoe zou Alice de coëfficiënt alfa kunnen verhogen?
    Alice zou de items nog een kritisch kunnen bekijken en eventueel aanpassen zodat deze
    inhoudelijk dichter bij elkaar liggen. Het gevaar is dan dat ze een nauwer construct meet dan
    nu en dus niet meer het volledige domein dekt (= lagere inhoudsvaliditeit). Alice zou ook de
    test kunnen verlengen door er enkele items bij te bedenken.
  • Alice heeft een schaal ontwikkeld bestaande uit 5 items om emotionele intelligentie te meten. Zie de afbeelding.

    De alfa is .63
    c) Alice wil dat de schaal minimaal een coëfficiënt alfa van .70 heeft. Met hoeveel items zou ze de test dan moeten verlengen?

    Om deze vraag op te lossen, moeten er enkele waarden van K uitgeprobeerd worden. r = 0.25.
    Bijvoorbeeld bij K = 7:
    7*0.25/(1+(7 – 1)*0.25) = 1.75/(1+1.50) = 0.70.
    De test moet dus met minimaal 2 items verlengd worden.
    Er bestaat ook een directe formule voor testverlenging, afgeleid van de Spearman-Brown
    formule:
    K = Rkk (1 – Rxx) / Rxx (1 – Rkk)
    Rxx= oude betrouwbaarheid
    Rkk = nieuwe betrouwbaarheid
    k is de factor waarmee het aantal items veranderd

    Als we de formule invullen:
    k = 0.70 (1 – 0.63) / 0.63 (1 – 0.70) = 0.70*0.37 / 0.63*0.30 = 0.26 / 0.19 = 1.37
    Het aantal items moet dus met de factor 1.37 verlengd worden. Dat betekent dat de nieuwe
    schaal uit 5*1.37 = 6.85 (afgerond 7) items moet bestaan.

  • Alice heeft een schaal ontwikkeld bestaande uit 5 items om emotionele intelligentie te meten. Zie de afbeelding.

    De alfa is .63
    d) Alice wil uiteindelijk de schaal gaan gebruiken als selectie-instrument. Met hoeveel items zou ze de schaal dan moeten verlengen?
    In selectiesituaties is de minimale betrouwbaarheid .80.
    k = 0.80 (1 – 0.63) / 0.63 (1 – 0.80) = 0.80*0.37 / 0.63*0.20 = 0.30 / 0.13 = 2.31
    Het aantal items moet dus met de factor 2.31 verlengd worden. Dat betekent dat de nieuwe
    schaal uit 5*2.31 = 11.55 (afgerond 12) items moet bestaan.
  • Jacob heeft een ruwe score van 18 op een cognitieve capaciteitentest. De gemiddelde score van zijn normgroep bedraagt 15 (SD = 2.00). De test-hertestbetrouwbaarheid van de test is .80.
    a) Bereken het 95% betrouwbaarheidsinterval voor de score van Jacob.
    b) Wat betekent dit interval?

    a) Om het BI te berekenen moeten we eerst de ware score van Jacob berekenen.
    T = (X - m) * rxx + m = (18 - 15)* 0.80 + 15 = 2.40 + 15 = 17.40

    Vervolgens hebben we de SE nodig.
    SE = SD * (1 - Rxx) = 2.00 * (1 - 0.80) = 0.40
    Het 95% BI bedraagt T ± 2*SE.
    De ondergrens is 17.40 – 0.80 = 16.60
    De bovengrens is 17.40 + 0.80 = 18.20

    b) We kunnen zeggen dat de kans 95% is dat de score van Jacob bij een volgende testafname
    tussen 16.60 en 18.20 zal liggen.

  • Bella is selectiepsycholoog bij de gemeente. Ze heeft de validiteit van een door haar ontwikkelde kennistest onderzocht onder 100 werknemers. Bella was een beetje teleurgesteld over het resultaat. Ze vond een correlatie van .20 tussen de kennistest en het criterium, het eindoordeel van de jaarlijkse functioneringsgesprekken. Volgens Schmidt en Hunter (1998) bedraagt de validiteit van kennistests normaal gesproken .48.

    a) Noem enkele redenen waarom de validiteitscoëfficiënt in de situatie van Bella lager is
    uitgevallen.
    Er zijn heel veel redenen te bedenken waarom de validiteitscoëfficiënt lager uitvalt. Volgens
    Schmidt en Hunter wordt dit door artefacten veroorzaakt, zoals een te kleine steekproef,
    fouten in scoring of administratie, ontbreken van correcties (attenuatie en ‘restriction of
    range’). Het kan aan systematische meetfouten in de test liggen. Daarnaast zijn
    functioneringsgesprekken niet altijd een betrouwbare en valide criteriummaat.
  • Bella is selectiepsycholoog bij de gemeente. Ze heeft de validiteit van een door haar ontwikkelde kennistest onderzocht onder 100 werknemers. Bella was een beetje teleurgesteld over het resultaat. Ze vond een correlatie van .20 tussen de kennistest en het criterium, het eindoordeel van de jaarlijkse functioneringsgesprekken. Volgens Schmidt en Hunter (1998) bedraagt de validiteit van kennistests normaal gesproken .48.

    b) Bella besluit de validiteitscoëfficiënt te corrigeren voor attenuatie. De betrouwbaarheid van de kennistest bedraagt .85. De betrouwbaarheid van het criterium bedraagt .65. Wat is de gecorrigeerde validiteitscoëfficiënt?
    De formule voor de correctie op attenuatie is Ptu = Pxy / Wortel (Rxx * Ryy) (zie afbeelding)
    De gecorrigeerde validiteitscoëfficiënt bedraagt:
    0.20 / √0 .85*0.65 =0.20 / √ 0.55 = 0.20 / 0.74 = 0.27
  • Bella is selectiepsycholoog bij de gemeente. Ze heeft de validiteit van een door haar ontwikkelde kennistest onderzocht onder 100 werknemers. Bella was een beetje teleurgesteld over het resultaat. Ze vond een correlatie van .20 tussen de kennistest en het criterium, het eindoordeel van de jaarlijkse functioneringsgesprekken. Volgens Schmidt en Hunter (1998) bedraagt de validiteit van kennistests normaal gesproken .48.

    c) Vervolgens besluit Bella de validiteitscoëfficiënt te corrigeren voor ‘restriction of range’. De SD
    in de geselecteerde groep is 10. De SD onder de gehele groep sollicitanten was 15. Wat is de
    gecorrigeerde validiteitscoëfficiënt?
    Zie de afbeelding
  • Vat kort samen wat de correctie voor attenuatie precies betekent:
    -Het is de correlatie tusssen de ware scores op test (predictor) en criterium.
    -X = T + E
    -De correlatie tussen test en criterium indien perfect betrouwbaar gemeten (zie formule afbeelding, Rxx en Ryy = 1.00)
  • Omschrijf het model van Binning & Barett:

    Zie afbeelding.
    Het criteriumdomein is vaak werkprestatie.
    De twee onderste (instrument/criteriummaat) kun je toetsen, de bovenste (predictor construct en criterium domein) niet.
    Predictorconstructen (cognitieve capaciteiten, kennis en ervaring, persoonlijkheid, motivatie, interesse) ->  er zijn weinig constructen die verband hebben met bijv. werkprestatie.

    Extra toelichting:
    Criteriumdomein = wat moet een persoon kunnen? Latente variabele, in de toekomst beschikbaar Selectieconstruct = kunnen we dit gaan voorspellen? Latente variabele, nu beschikbaar Selectieinstrument = operationalisering van selectieconstruct. Manifeste variabele, nu beschikbaar Criteriummaat = operationalisering van criteriumdomein. Manifeste variabele, in de toekomst beschikbaar. Elke pijl staat voor een mogelijke fout; relaties zijn niet perfect.

  • Omschrijf de Multimethod-Multitrait-Matrix:

    Je meet steeds dezelfde items, maar met verschillende metoden/vragen
    Zie de afbeelding:
    1 Hetero-trait mono-method (p. 5): relaties tussen verschillende trekken, binnen hetzelfde instrument (dit wil je niet te hoog hebben)
    2 Hetero-traut hetere-method: verschillende trekken en verschilende instrumenten: moet zo laag mogelijk zijn, geen verband.

    Divergente validiteit moet zo laag mogelijk zijn: .10 is laag, .30 is gemiddeld, .50 is hoog.

  • Voor de BI reken je op deze volgorde de volgende dingen uit:
    Eerst de T = (X-M) * Rxx + M

    Dan de SE = SD * V(1-Rxx)
    Dan de BI = T +/- SE

Read the full summary
This summary. +380.000 other summaries. A unique study tool. A rehearsal system for this summary. Studycoaching with videos.

Latest added flashcards

Leg uit wat ‘behaviorally anchored rating scales’ (BARS) zijn. Teken een voorbeeld van zo’n schaal.  

BARS zijn schalen waarbij gedragsvoorbeelden worden gegeven voor de verschillende prestatieniveaus. Op deze manier worden zowel de te beoordelen competenties als de prestatieniveaus gedefinieerd in duidelijke gedragsgerichte termen. Een voorbeeld in de afbeelding

Geef een overzicht weer van de cleary modellen die volgens Meade & Fetzer wel of niet fair zijn:

Zie afbeelding. 1e model is het model waar Cleary en M&F het overeens zijn en het laatste, rechts onder is volgens Cleary niet geschikt, maar volgens M&F wel. De 2e en 3e sowieso niet geschikt.

Toelichting:
Cleary: wolken  moeten op dezelfde regressielijnen liggen! Anders is het unfair. Dus alleen 1e afb.
Meade en Fetzer: bepaalde andere situaties zijn ook fair.
Test niet februiken: beide partijen eens dat je 2/3 niet moet gebruik, bij 3e plaatje nl bias.
Maar plaatje 4; wel gebruiken volgens M&F. testscore wel gelijk, maar regressielijn verschil. Voordelig voor minderheidsgroep.

Gebruik de Taylor-Russell tabellen voor het beantwoorden van de volgende vragen. De tabellen presenteren de proportie geschikte kandidaten na selectie (de succesratio [SU]) alseen functie van:-de proportie geschikte kandidaten in de kandidatenpool (de ‘base rate’);-de selectieratio;-de correlatie tussen de predictor en het criterium (rxy). Vul de tabel verder in.

Zie tabel in afbeelding. De SU moet je invullen in deze opdracht.
Toelichting: je hebt de BR nodig om de juiste tabel te kiezen. Vervolgens heb je de Rxy nodig voor de verticale as en de SR nodig voor de horizontale as. Hierdoor kun je 'in het midden' de SU aflezen.

Welke 4 typen cross-level effecten zijn er wanneer er op teamniveau gemeten wordt?  

1 Bottom-up: bijv. individuele self-efficacy --> beinvloedt teamprestatie (uitkomt op team niveau, maar predictor op individueel niveau)
2 Top-down: bijv. charismatisch leiderschap --> beinvloedt ind. self-efficacy (uitkomst individueel, predictor team)
3 Cross-level moderatie: wanneer charismatisch leiderschap de relatie tussen individuele self-efficacy --> en team-prestatie beinvloedt. Dus is modererend. (moderator en predictor worden op verschillende niveaus gemeten)
4 Cross-level frog-pond: Relatieve self-efficacy --> beinvloedt individuele prestatie (
hoe scoort iemand t.o.v. de groep: is er sprake van frog pond?)

Zie de voorbeelden en bepaal de Rwg(j) en de ICC(1)

Voorbeeld 1: Goede Rwg: er is veel correlatie binnen de teams, ICC = laag.
Voorbeeld 2: Rwg is lager, maar goede ICC: verschillen tussen de teams is duidelijk. Variantie tussen de teams is groter, dan binnen de teams. Dus goede ICC. Rwg: je wilt de overeenstemming hoog hebben, dat is nu niet zo.
ICC hoog = scores binnen het team verschillende minder, dan de scores tussen de teams.

 
Beschrijf het model van Leary:

Zie afbeelding

Omschrijf het Ofman model:

Iets wat je kwaliteit is verklaart ook meteen je valkuil, allergie en uitdaging (zie afb.)

Wat bedoelt Hans Schutijser met 'goed gereedschap maakt nog geen timmerman"?

Zie afb.

Geef 2 voorbeelden waarin de tabellen van Bartram worden toegepast.

Zie afbeelding. Andere info:
-Tabel 1: Z-diff = d-waarde (gestandaardiseerd verschil) = verhouding kandidaten
-Tabel 2: afh. van de percentages kies je tabel a, b, c enz.

-%sel = sel.ratio

-Hoe kies je de juiste tabel: aantal meerderheid : door totaal aantal= percentage. Daarbij kies je de tabel.

-Als %sel 57.91 is, betekent dat dat je 58% van de gehele groep moet aannemen om aan de 80%regel te voldoen.

-Bij tabel 1: je bent vrij in de hoeveelheid mensen die je aanneemt

-Bij tabel 2: hierin relevant hoeveel mensen je aanneemt

-Tabel 1: gebruik je om de SelectieRatio uit te rekenen

-Tabel 2: gebruik je als je de SR hebt

-Hoe hoger de sd/z-diff hoe meer mensen je aan moet nemen om aan de 80% te voldoen.

-%sel = SR

 

Geef een voorbeeld van adverse impact

Zie afbeelding