Samenvatting Evaluation A Systematic Approach

-
ISBN-10 0761908943 ISBN-13 9780761908944
263 Flashcards en notities
10 Studenten
  • Deze samenvatting

  • +380.000 andere samenvattingen

  • Een unieke studietool

  • Een oefentool voor deze samenvatting

  • Studiecoaching met filmpjes

Onthoud sneller, leer beter. Wetenschappelijk bewezen.

Dit is de samenvatting van het boek "Evaluation A Systematic Approach". De auteur(s) van het boek is/zijn Peter H Rossi Mark W Lipsey Howard E Freeman. Het ISBN van dit boek is 9780761908944 of 0761908943. Deze samenvatting is geschreven door studenten die effectief studeren met de studietool van Study Smart With Chris.

PREMIUM samenvattingen zijn gecontroleerd op kwaliteit en speciaal geselecteerd om je leerdoelen nog sneller te kunnen bereiken!

Samenvatting - Evaluation A Systematic Approach

  • 2.1 What aspects of the evalution plan must be tailored?

  • Iedere evaluatie draait om 3 dingen:
    - Welke vraag moet de evaluatie beantwoorden?: richt je niet op te veel dingen tegelijk.
    - De methodes en procedures die gebruikt zullen worden om de vragen te beantwoorden. 
    - Wat voor relatie is er tussen de evaluator en de betrokkenen?
  • 2.2.1.1 Program improvement

  • Formative evaluation
    An evaluation intended to furnish information for guiding program improvement 
  • 2.2.1.2 Accountability

  • Summative evaluation
    Its purpose is to render a summary judgement on the program's performance
  • 2.2.1.3 Knowledge Generation

  • Sommige evaluaties worden gedaan om een interventie en de effecten daarvan te beschrijven als een toevoeging aan de wetenschappelijke kennis. Hiervoor worden wetenschappelijke methoden gebruikt, die minder geschikt zijn voor de praktische evaluaties.
  • 2.2.1.4 Hidden agendas

  • Soms wordt er een evaluatie uitgevoerd, gewoon omdat de leidinggevende denken dat het mooi staat of goed uitkomt. In dit soort onderzoeken is het moeilijk integer te zijn, omdat het vooral draait om PR. 
  • 2.2.2 The program structure and circumstances

  • Er zijn altijd verschillen tussen programma's afhankelijk van de organisatorische structuur, de omgeving en sociale en politieke situatie.
  • 2.2.2.1 Stage of development

  • Wat voor soort evaluatie nodig is, is afhankelijk van het stadium van ontwikkeling waarin de interventie zich bevindt. 
  • 2.2.2.2 Administrative and political context of the program

  • De verschillende betrokkenen bij een programma kunnen ieder een ander kijk hebben op de missie, doelen of belangrijkste onderdelen van het programma. Het is aan de evaluator deze verschillende opvatting samen te voegen in een algemeen geldende opvatting. Je kunt er ook voor kiezen de evaluatie vanuit het standpunt van slechts een van de betrokkenen te doen. Het is vrijwel onmogelijk om met een evaluatie alle betrokkenen gelukkig te maken. 
  • 2.2.2.3 Conceptual and organizational structure of the program

  • Program theory
    The conceptualization of the program: its plan of operation, the logic that connects its activities to the intended outcomes and the rationale for why it does what it does. 
  • Wanneer de theorie achter het programma niet duidelijk geformuleerd is, kan de evaluator soms zich beter alleen richten op het verbeteren hiervan. 
  • 2.2.2.4 The resources available for evaluation

  • Een belangrijk aspect van het plannen van een evaluatie is het opdelen van taken en het opzetten van tijdlijnen voor het behalen van deze taken. Op deze manier kan een inschatting gemaakt worden van de benodigde materialen, fondsen en personen. Deze hulpbronnen moeten natuurlijk wel passen binnen het budget van de evaluatie. Maar dit zou niet het enige focuspunt van de onderzoeker moeten zijn. Het is belangrijk dat de onderzoeker ondersteunt wordt door het management, het personeel en anderen betrokkenen. Bovendien moet de onderzoeker toegang krijgen tot de nodige informatiebronnen. Verzet vanuit de organisatie kan voorkomen worden als de onderzoeker in een zo vroeg mogelijk stadium duidelijk is over wat hij nodig heeft om de evaluatie succesvol uit te voeren. Een andere belangrijke hulpbron is tijd: hoe meer tijd er is, hoe dieper en wetenschappelijker het onderzoek. Als er minder tijd is, zal de evaluatie ook automatisch minder diepgaand zijn. 
Lees volledige samenvatting
Deze samenvatting. +380.000 andere samenvattingen. Een unieke studietool. Een oefentool voor deze samenvatting. Studiecoaching met filmpjes.

Laatst toegevoegde flashcards

how are meta-analyses constructed?
1) reports of all available impact assessment studies of a particular intervention or type of program are first collected
2) the program effects on selected outcomes are then encoded as effect sizes using an effect size statistic. Other descriptive information is also recorded.
3) all of this is put in a database and various statistical analysis are conducted on the variation in effects and factors associated with that variation
mediator variables are interesting for 2 reasons
- it helps to better understand what change processes occur among targets as a result of exposure to the program --> informed consideration of ways to enhance that process and improve program to attain better effects
- testing for mediator relationships hypothesized in program logic is another way of probing the evaluation findings to determine if they are fully consistent with what is expected if the program is in fact having the intended effects.
proximal outcomes in program impact assessment are all _____
mediator variables
important role of moderator analysis
avoid premature conclusions about program effectiveness based only on overall mean program effects

test evaluators' expectations about what differential effects should appear
What happens if you do not conduct a moderator analysis?
overall positive effect would mask the fact that the program was ineffective with a critical subgroup or the overall program effect may be negligible, suggesting that the program was ineffective
if subgroups are defined at the start of impact analysis the there will be a selection bias/no selection bias?
no selection bias

selection bias comes into play in emerging subgroups
practical significance of program effects:
for stakeholders and evaluators to interpret appraise program effects effects must be translated to terms that are relevant to the social conditions the program aim to improve, 

interpretation of statistical effects on outcome measures with values that are not inherently meaningful requires comparison with some external referent that will put the effect size in practical context
control variables act to:
magnify statistical effect size and thereby allow the same poer to be attained with a smaller sample
How can you control for Type II error?
requires configuring the research design so that it has adequate statistical power 

1) decide smallest effect size the design should reliably detect
2) decide how much risk of Type II error to accept
3) design impact evaluation with sample size and type of statistical test that will yield the desired level of statistical power

use of control variables to reduce statistical noise
How can you control for Type I error?
the maximum acceptable chance Type I error is set by the researcher when an alpha level for statistical significance is selected for the statistical test to be applied