« Ne sait pas » est une modalité de réponse utilisée dans les questionnaires et divers types de formulaires pour permettre à l'enquêté de manifester positivement son incapacité à fournir une réponse à une question posée par l'enquêteur ou auto-administrée. En ce sens, elle doit être distinguée de la non-réponse, qui est l'absence totale de réponse même lorsqu'un item blanc est explicitement proposé au répondant oralement ou par écrit. Lors de la saisie informatique des données récoltées, elle est généralement abrégée sous la forme « NSP », qui sert aussi lors du traitement.

L'utilisation ou non de la modalité est un enjeu pour le chercheur, car sa présence dans le questionnaire peut inciter les personnes questionnées à renoncer à des réponses utiles qu'elles feraient effectivement en son absence. D'un autre côté, ne pas y recourir, c'est risquer d'obtenir de nombreuses réponses faites sans conviction de nature à introduire un biais statistique dans les résultats finaux. En outre, cela ne permet pas une distinction entre les enquêtés qui admettraient positivement ne pas savoir répondre et ceux qui sauteraient la question sans pour autant pouvoir l'admettre, ce qui serait donc une non-réponse. Dans le cadre d'un sondage d'opinion politique, par exemple, cela revient à risquer de confondre des électeurs susceptibles de recourir au vote blanc et des abstentionnistes potentiels.

Définition

modifier

Dans un questionnaire ou un formulaire écrit ou informatique, on peut utiliser trois types de questions :

  • une question « ouverte », suivie par un espace où la réponse peut être écrite. Si la réponse de la personne interrogée est, pour les questions factuelles, « je ne sais pas » (NSP), « je n’en sais rien », ou, pour les questions d’opinion ou d’attitude, « sans opinion », « pas d’opinion », « pas la moindre idée », etc., il s’agit d’une réponse NSP spontanée.
  • La question peut aussi être « semi-ouverte » suivie de plusieurs modalités de réponse, dont une modalité « autre : préciser »[1], suivie d’un espace pour préciser la réponse. Ici aussi, une réponse NSP serait spontanée. Mais l'analyste peut reclasser certaines des réponses NSP selon les précisions fournies par l'enquêté[2].
  • Dans une question « fermée », comprenant une liste de modalités de réponse, on peut inclure la modalité « ne sait pas » (ou, pour les questions d’opinion ou d’attitude, « sans opinion », etc.). Si cette modalité est choisie, il s’agit d’une réponse NSP choisie.

Dans une entrevue en face-à-face ou une enquête par téléphone, une question peut également être être ouverte, semi-ouverte ou fermée. Face à une réponse NSP spontanée ou choisie, l’enquêteur peut soit l’accepter et passer à la question suivante, soit relancer la question et, parfois, obtenir une réponse autre. Face à une absence de réponse claire, il peut aussi proposer « vous ne savez vraiment pas ? » ou « vous n’avez pas d’opinion ? » ou « de quelle autre réponse vous sentez vous le plus proche? », etc.

Pour une même question, le format de la question et la façon dont l’entrevue est conduite influence la fréquence des réponses NSP, la fréquence des réponses autres et les caractéristiques des enquêtés ayant fourni chaque réponse possible. Dans certains cas, l'influence des réponses NSP est négligeable. Mais dans d'autres, elle peut modifier considérablement les résultats de l'enquête ou du formulaire.

Ne sait pas (sans opinion) et non réponse

modifier

Une réponse NSP diffère d’une non-réponse à une question. Elle peut être le choix délibéré d’une modalité et non un refus de répondre. Dans ce cas, le répondant fait savoir son ignorance ou son absence d’opinion, ou signale que son opinion n’est pas assez tranchée pour correspondre à aucune des autres modalités proposées[3]. Les questions qui demandent un effort cognitif important et les questions sensibles tendent à susciter des réponses NSP[4]. Cependant, pour certaines questions, une réponse NSP peut cacher un refus de répondre, par exemple sur une question sensible comme le niveau de revenus. Mais une réponse NSP peut aussi être un « vote protestataire » : si je réponds que je ne sais pas, c'est parce que je refuse de répondre à une telle question. Plusieurs analyses comparatives du groupe des enquêtés qui choisissent de ne pas répondre et du groupe de ceux qui donnent une réponse NSP montrent que ces deux groupes diffèrent.

Ne sait pas (sans opinion) et « non applicable »

modifier

Certaines questions peuvent ne pas concerner certaines personnes. En l'absence d'option « non applicable » ou « ne me concerne pas », ces personnes pourront utiliser la réponse « ne sait pas » ou « sans opinion » qui combinera ainsi des réponses très différentes.

Ne sait pas (sans opinion) : absence de connaissance (ou d'opinion) ou indifférence/ambivalence ?

modifier

Certaines questions d’opinion nécessitent une certaine connaissance du sujet (par exemple : « Si on installe une éolienne à tel endroit, préférez vous le [modèle A] ou le [modèle B] ? ») ; une réponse « ne sait pas » ou « pas d’opinion » peut signifier :

  • Soit que l'enquêté est opposé à l'installation d'une éolienne, quelle qu'elle soit ; la réponse NSP est choisie par défaut, en l'absence d'une option « ni l'une, ni l'autre »
  • Soit que l’enquêté ne sait pas quelle sont les différences entre les deux modèles, ou les avantages et inconvénients de chacun : il n’a vraiment pas du tout d’opinion
  • Soit que l’enquêté connaît plus ou moins un des deux modèles, mais pas l’autre
  • Soit que l’enquêté connaît les deux modèles, et les avantages et inconvénients de chacun, mais n’a pas d’opinion bien tranchée sur lequel est préférable : il est indifférent ou ambivalent ; il a une opinion, mais pas de préférence entre A et B.

De même, répondre « pas d’opinion » à une question du type « Êtes vous favorable à telle ou telle mesure ? » peut refléter une réelle absence d’opinion ou une indifférence/ambivalence.

Le cas des échelles de Likert

modifier

Une question peut comporter à la fois une échelle de Likert (par laquelle la personne interrogée exprime son degré d'accord ou de désaccord vis-à-vis d'une affirmation) contenant une position médiane « Ni d'accord, ni en désaccord » et une option « ne sait pas » ou « sans opinion ». Cette procédure permet de distinguer les personnes sans opinion et les personnes indifférentes ou ambivalentes. L'expérience montre toutefois que certaine personnes ambivalentes, qui ont à la fois des opinions « pour » et des opinions « contre » mais ne peuvent les résumer ni dans un sens ni dans l'autre, se déclareront « sans opinion » et mêleront leur voix à ceux qui n'ont ni opinion « pour » ni opinion « contre »[5].

En l'absence d'une position médiane (échelle paire, ou « à choix forcé »), certaines personnes indifférentes ou ambivalentes seront incitées à fournir une réponse « plutôt d'accord » ou « plutôt en désaccord », les autres choisissant l'option « NSP »[6]. Pour certaines questions sensibles (race, immigration, mais aussi emploi, pauvreté, etc.) un certain nombre de personnes ambivalentes préfèreront choisir l’option médiane plutôt que leur option préférée, ressentie comme politiquement peu correcte. La suppression de l’option médiane tendra à renforcer l’option peu avouable. La réponse NSP s’enrichira des personnes trop ambivalentes pour choisir une option « pour » ou « contre » et celles qui se refusent à déclarer une position qui les présenterait sous un jour négatif[7].

Distinguer les « opinions inexistantes » des « opinions ambivalentes/indifférentes »

modifier

Il y a ambivalence quand une même personne combine à la fois des attitudes positives et négatives[8]. Si les attitudes positives et négatives tendent à s'équilibrer, l'ambivalence conduit à l'indifférence, qui se distingue de l'absence d'opinion.

Dans une enquête en face-à-face ou par téléphone, l’enquêteur peut être formé à distinguer les « opinions inexistantes » des « opinions ambivalentes ou indifférentes ». Par exemple, une étude de Faulkenberry & Mason (1978) a montré que les enquêtés aux « opinions inexistantes » avaient moins d’éducation formelle, étaient moins exposés aux mass média et (sans surprise) avaient une moindre connaissance du sujet que les enquêtés aux « opinions ambivalentes ou indifférentes »[9].

Des méthodes d'analyse des réponses NSP ont également été proposées[10].

Théories de la « production » des réponses NSP

modifier

Le choix de la modalité « NSP » dans un questionnaire ou un formulaire auto-administré (sans l’intervention d’un enquêteur) peut être vu comme le résultat d’un processus cognitif de la part de l’enquêté, ou d'une stratégie de réponse, ou même de la combinaison d'un processus cognitif et d'une stratégie de réponse.

La « production » de réponses « NSP » en tant que résultats de processus cognitifs

modifier

Dans le cas d’une enquête en face-à-face ou par téléphone, ce processus cognitif se complique de l’intervention de l’enquêteur. De nombreux auteurs ont proposé des séquences de processus cognitifs qui conduisent au choix d’une réponse, dont la réponse « NSP » quand celle-ci est proposée :

  • Modèle de réponse aux questions (question answering model) de Cannel et al.[11].
  • Modèle en trois étapes de Martin[12].
  • Modèle de mémoire dans les enquêtes (survey memory model) de Stube[13].
  • Modèle de réponse aux questions autobiographiques quantitatives de Schwarz[14].
  • Modèle Cognitive Aspects of Survey Methodology (CASM) et QUEST (QUestionnaire Evaluation STandards)[15].
  • Processus en quatre étapes (four steps process) de Tourangeau[16] et processus en quatre étapes révisé (revised four steps process)[17].
  • Le modèle de traitement flexible (flexible processing model) de Willis et al., destiné à l’origine aux questions dans les enquêtes sur la santé[18].
  • Modèle d’échange d’information (information exchange model) de Sander et al.[19].
  • Modèle d’évaluation de la forme (form appraisal model) de Forsyth et al.[20].

Nombre de ces modèles de production de réponses proposent une séquence générale en quatre étapes[21] :

  • La compréhension de la question. L’enquêté découvre à la fois la question posée et les modalités de réponse proposées. Son degré de compréhension dépend à la fois de la clarté du phrasé de la question et des modalités, donc de sa maîtrise de la compréhension de l’écrit et de sa connaissance du sujet. Cette compréhension peut aussi être affectée par le texte de présentation de l’enquête et par les questions précédentes.
  • La récupération mentale d’information[22]. L’enquêté fait appel à sa mémoire pour retrouver les informations nécessaires à la formulation d’une réponse. Le processus est relativement simple et rapide pour les questions factuelles, encore que l’enquêté peut avoir un « trou de mémoire » ou soit obligé de réfléchir intensément pour retrouver les informations nécessaires. Le processus est souvent plus complexe pour les questions d’attitude, d’opinion ou de croyance : il s’agit de retrouver les éléments parfois disparates qui contribuent à leur formation.
  • Le jugement. Pour les questions factuelles, il s’agit de s’assurer que les informations obtenues correspondent bien à la question. Dans certains cas, il n’y a aucun travail de jugement à réaliser (« Je ne suis jamais allé à l’opéra », « Je n’ai jamais eu de moto ») ; dans d’autres, il faut faire un effort en combinant plusieurs informations : « Je suis allé à l’opéra, mais était-ce il y a moins d’un an ? »). La phase de jugement est plus complexe pour les questions d’attitude, d’opinion ou de croyance, sauf si l’enquêté a des attitudes, opinions ou croyance « bien arrêtées ». Il faut peser le pour et le contre, évaluer les avantages et inconvénients.
  • La sélection d’une modalité. Plusieurs stratégies sont possibles pour choisir la meilleure (ou la moins mauvaise) modalité : prendre la première modalité qui semble convenir et ignorer les autres[23] ; éliminer progressivement les modalités les plus inadaptées et sélectionner le dernière ; décider si on est « Tout à fait d’accord » ou seulement « D’accord »…

Certains modèles incluent d’autres processus mentaux. Par exemple, l’enquêté peut s’assurer que sa réponse est cohérente avec les réponses précédentes, qu’il peut éventuellement modifier. Tous reconnaissent qu’en réalité, les étapes ne se suivent pas simplement et que les retours en arrière sont fréquents, notamment lors des interactions avec l’enquêteur.

Le choix d'une réponse « NSP » peut intervenir à chaque étape du processus : incompréhension ou non-pertinence de la question, incapacité à retrouver les informations nécessaires à une réponse, incapacité de former un jugement, ou de sélectionner une modalité.

La « production » de réponses « NSP » en tant que résultats de stratégies de réponse

modifier

D’autres se sont concentrés non sur les processus mentaux, mais sur les stratégies utilisées par les enquêtés. Deux modèles s’intéressent particulièrement aux stratégies susceptibles de conduire à la sélection de la modalité « NSP ».

  • Le modèle de satisficing de Jon A. Krosnick : répondre correctement à une question exige un effort important ; certains enquêtés préfèreront donner une « réponse satisfaisante » qui demande moins d’efforts, par exemple, répondre « NSP » si cette réponse ne provoque pas de complications de la part de l’enquêteur[24].
  • Le modèle de décision de réponse (response decision model), développé en relation avec le problème des réponses « NSP ». La décision de répondre ou de ne pas répondre, et, si on répond, de choisir ou non l’option « NSP » dépend de trois facteurs : (1) les connaissances de l’enquêté ; (2) la perception que l’enquêté a de la précision attendue par l’enquêteur et (3) la motivation de l’enquêté à fournir l’information demandée[25] ainsi que de la difficulté de retrouver l’information nécessaire. Répondre « ne sait pas » ne veut pas toujours dire qu’on ne sait pas[26].

La « production » de réponses « NSP » : cas particuliers

modifier

Dans le cas de certaines questions et de certaines enquêtes, la production des réponses « NSP » résulte de processus très particuliers. Les réponses NSP peuvent être l'expression d'une « ignorance déclarée », stratégie de protection de soi et forme de défense qui peut également se traduire par une non-réponse ou un silence[27]. Par exemple, en France, les questions relatives à l'Occupation et la collaboration[28].

Voir aussi : Lam, Allen & Green (05-2010). Tourangeau & Rasinski (1988). Zaller & Feldman (1992)

Faut-il inclure l’option « NSP » ou « sans opinion » dans les questionnaires ?

modifier

L'utilisation ou la non-utilisation de la modalité est un enjeu méthodologique pour le chercheur,

Les arguments en faveur de l’inclusion de l’option « NSP ou « Sans opinion ».

modifier

Inclure une option « NSP » n’a aucun effet sur les enquêtés qui ont compris la question et ont une réponse précise à fournir ou une opinion déjà formée et bien arrêtée[29]. Par contre, l’option permet à ceux qui n’ont pas bien compris la question, ceux qui n’ont pas de réponse précise à donner, ceux qui n’ont pas d’opinion claire, etc. de fournir une réponse. La présence de l’option « ne sait pas » ou « sans opinion » indique à l’enquêté qu’une telle réponse est acceptable. Sans cette option, ils risqueraient de « sauter la question » ou de fournir une réponse au hasard[30]. Ce serait également le cas de ceux qui adoptent le modèle du satisficing. Dans tous les cas, les résultats seraient biaisés. Pour éviter ces réponses factices, certains experts recommandent l’inclusion de la modalité « NSP » dans toutes les questions factuelles pour lesquelles l’enquêté peut fort bien ne pas savoir et pour toutes les questions d’opinion[31].

Les arguments contre l’inclusion de l’option « NSP ou « Sans opinion ».

modifier

D'un autre côté, ne pas y recourir, c'est risquer d'obtenir de nombreuses réponses faites sans conviction de nature à introduire un biais statistique dans les résultats finaux. En outre, cela ne permet pas de distinguer entre les enquêtés qui admettraient positivement ne pas savoir répondre, ceux qui sauteraient la question sans pour autant pouvoir l'admettre, ce qui serait donc une non-réponse et ceux qui sont ambivalents. Dans le cadre d'un sondage d'opinion politique, par exemple, cela revient à risquer de confondre des électeurs susceptibles de recourir au vote blanc et des abstentionnistes potentiels.

Les résultats empiriques

modifier

Pour les questions factuelles, on peut organiser des expériences où on demande aux enquêtés qui ont répondu « NSP » de donner quand même une réponse. Plusieurs études montrent que beaucoup de ceux qui disent « ne pas savoir » en savent en fait plus qu’ils ne veulent le dire. De même, on peut améliorer les « sondages électoraux » en incitant ceux qui disent ne pas savoir pour qui ils voteront aux prochaines élections à indiquer quand même vers qui va leur préférence[32].

On peut aussi comparer les résultats obtenus dans des enquêtes incluant ou excluant des options « NSP » ou « sans opinion », mais par ailleurs identiques

Plusieurs études montrent que les enquêtes d’opinion qui incluent des options « sans opinion » donnent de meilleurs résultats que celles qui n’en incluent pas[33]. D’autres donnent un résultat inverse[34].D’autres encore ne montrent pas de différence sensible[35]. D’autres enfin montrent des différences variables selon les enquêtes et les questions[36],

Quand une enquête (par exemple, annuelle) est répétée, mais que l’option « NSP » est ajoutée ou supprimée pour certaines questions, on peut examiner si cet ajout ou cette suppression entraîne une rupture dans les séries[37]. L’effet visible de la suppression de l’option « NSP » (en conservant pour l’enquêté la possibilité de dire qu’il ne sait pas) est bien évidemment de réduire le pourcentage de telles réponses. Par exemple, dans l’enquête du Crédoc Aspirations et Conditions de Vie le nombre de « sans opinion » qui atteignait 16 % lorsque l’on proposait cette modalité tombe à 1 % pour la même question lorsqu’elle n’est pas proposée[38].

Faut-il décourager la réponse « NSP » quand cette option est proposée ?

modifier

Au moins une partie des personnes qui répondent « NSP » ont une connaissance ou une opinion à exprimer, mais ne le font pas pour diverses raisons. Une réponse « NSP » peut aussi résulter d’une incertitude sur la réponse à donner, des sentiments contradictoires ou ambivalents, une gène à donner une réponse qu’on préfère garder pour soi[39]. Il est en général conseillé de ne pas inciter le répondant à utiliser la réponse « NSP » dans les questionnaires écrits et les formulaires, et d’insister pour obtenir une réponse autre que « NSP » dans les enquêtes orales. Le risque est alors d’inciter l’enquêté qui ne sait vraiment pas ou qui n’a réellement pas d’opinion à donner une réponse artificielle.

Or, pour certains types de questions d’opinion, le taux de répondants exprimant des pseudo-opinions peut être très élevé. Par exemple, dans une étude réalisée aux États-Unis, près de la moitié des adultes exprimaient leur opinion (accord ou désaccord) sur la « Loi de 1975 sur les Affaires Publiques », une loi imaginaire qui n’avait jamais existé. En relançant ceux qui n’avaient « pas d’opinion », on ajoutait dix pour cent de plus à ceux qui en exprimaient une[40].

L’effet des relances dans les entrevues en face-à-face ou les enquêtes par téléphone

modifier

Dans ce type d’enquête, « je ne sais pas » est souvent une façon de dire « attendez une minute, je réfléchis », « j’ai bien une idée, mais je ne suis pas sûr de ma réponse », ou même « en fait, je n’ai pas très bien compris la question ».

Dans les enquêtes d’opinion, les relances en cas de première réponses NSP tendent à réduire fortement ces réponses, souvent de plus de la moitié, ce qui affecte de façon significative le résultat final[41].

Découragement des réponses « ne sait pas » dans les questionnaires et formulaires écrits

modifier

Les instructions portées sur les questionnaires et formulaires peuvent influencer fortement le taux de réponse « NSP ».

Une méthode drastique de réduire le taux de réponse « NSP » dans les questions d’opinion est de ne pas inclure cette modalité dans la liste. Dans ce cas, l’expérience montre que l’enquêté examine les options plus en détail et exerce plus d’effort pour sélectionner une réponse, mais avec le risque d’obtenir des pseudo-réponses de ceux qui n’ont pas d’opinion bien tranchée ou « ne se retrouvent pas » dans les modalités proposées[42]. Cependant, selon les expériences conduites par Krosnick et al. (2002), omettre la modalité « NSP » n’affecte pas la qualité des données, et il est préférable de ne pas inclure de modalité NSP dans les questions sur les attitudes pour éviter de perdre des opinions[43]. Un autre risque est d’obtenir une non-réponse à la question, l’enquêté passant à la question suivante, ou même un abandon complet du questionnaire. Ce risque est particulièrement élevé dans une enquête Web quand l’enquêté qui n’a pas fourni de réponse à une question ne peut pas « passer à la question suivante »[44].

Dans tous les cas, une réduction du taux de réponse « NSP » accroit le poids des catégories qui tendent à choisir cette réponse dans les résultats[45]. C’est notamment le cas des femmes dans les enquêtes sur la politique, au moins aux États-Unis[46].

Facteurs et variables associées aux réponses « ne sait pas »

modifier

La fréquence des réponses « NSP » dépend de nombreux facteurs, notamment :

  • le mode d’administration des enquêtes
  • les caractéristiques des questions et la structure des questionnaires
  • les caractéristiques des enquêteurs
  • les caractéristiques des enquêtés

Effet du mode d’administration des enquêtes sur la fréquence des réponses « NSP »

modifier

Une question donnée posée par écrit conduit à plus de réponses NSP que la même question posée voix orale[47].

L’effet du mode d’administration des enquêtes peut aussi dépendre du type de question posée : par exemple, aux États-Unis, des questions sur la perception des discriminations (A votre avis, y a-t-il beaucoup/un peu/peu/pas de discrimination selon [cause] ?) ont été posées au cours d’un enquête Web et dans une enquête par téléphone ? Le taux de NSP était beaucoup plus faible dans l’enquête web. Le résultat inverse a été obtenu avec des questions sur l’expérience de discrimination (Avez-vous vous-même ou quelqu’un de votre famille, été victime de discrimination basée sur [cause] ?) : le taux de NSP était beaucoup plus élevé dans l’enquête web[48].

Caractéristiques des questions, structure des questionnaires et fréquence des réponses « NSP »

modifier

Le taux de NSP dépend du type de question posée, de la façon dont celle-ci est posée, etc. :

Les questions elles-mêmes

modifier
  • Bien évidemment, pour les questions factuelles, plus le nombre de personnes qui ne « savent vraiment pas » est élevé, plus on obtient ce type de réponse.
  • Certaines questions factuelles font appel à la mémoire, du type : « combien de fois avez-vous fait ceci ou cela ? ». Une réponse NSP peut signaler un enquêté qui a simplement oublié – il ne peut pas répondre, il ne sait pas. Mais selon le modèle de décision de réponse de Beatty et al., le processus est plus complexe, impliquant à la fois l’information dont le répondant peut se souvenir avec peu d’effort, celle qui peut lui revenir en mémoire avec des efforts, sa perception du degré de précision exigée pour donner une réponse, sa capacité à choisir la modalité la plus appropriée et sa motivation à fournir une réponse[49].
  • Pour tous les types de questions, plus celle-ci est complexe et difficile à comprendre, plus on obtient de réponses NSP[50]. Cependant, selon Jean M. Converse, ce n'est pas la complexité du langage utilisé dans la formulation des questions dans les enquêtes d'opinion qui serait à la source des réponses NSP, mais le contenu même de ces questions[51].
  • Pour les questions d’attitude ou d’opinion, l’expérience montre que plus la question est sensible, plus on obtient de réponses « NSP »[52].
  • Le taux de réponses « NSP » peut aussi être affecté par les autres modalités proposées. Par exemple, on obtiendra plus de réponses « NSP » pour une question d’opinion si les réponses possibles sont « D’accord » et « Pas d’accord » que si les réponses sont adoucies « Plutôt d’accord », « Plutôt pas d’accord » ou si une palette de positions plus nuancées est proposée (« Tout à fait d’accord », « D’accord », etc.)[53].

Les questions au sein du questionnaire

modifier
  • Regrouper les questions par thème réduit le taux de réponse NSP[52].
  • Plus la question est posée tard au cours de l’entrevue, ou loin dans le questionnaire, plus elle tend à obtenir des réponses « NSP »[54].
  • Enfin, placer la modalité « NSP » en fin de liste des modalités proposées réduirait le choix de cette réponse. Mais ce n’est pas toujours le cas[55].
  • L'existence ou l'absence d'une position centrale dans une échelle de Likert affecte la fréquence des réponses « NSP »[56].

Plus généralement, la structure du questionnaire est susceptible d’affecter le taux de réponse « NSP »[57].

Caractéristiques des enquêteurs et fréquence des réponses « NSP »

modifier

Il est bien connu que, dans les enquête en face-à-face ou par téléphone, l’enquêteur a un effet sur l’enquêté et influence ses réponses.

Le degré d’expérience de l’enquêteur semble influer sur le taux de réponse NSP obtenu. Deux types d’expérience jouent un rôle : l’expérience accumulée par l’enquêteur au cours de sa carrière, et celle, plus récente, qu’il acquiert en interrogeant de nouvelles personnes dans le cadre de l’enquête en cours. Un enquêteur expérimenté peut ainsi obtenir un taux de NSP réduit quand les enquêtés hésitent à donner une réponse plus précise, mais à accroître ce taux quand les enquêtés tendent à répondre pour « faire plaisir à l’enquêteur »[58].

D'autres facteurs affectent le degré auquel les enquêteurs acceptent les réponses « NSP ». En l’absence d’une standardisation suffisante des procédures d’enquête, certains enquêteurs pourront accepter trop facilement de telles réponses (par exemple en omettant d’expliquer la question à un enquêté qui ne l’a pas bien comprise), tandis que d’autres inciteront trop, ou même « forceront » les enquêtés à fournir une autre réponse. Ces cas peuvent être détectés par l’analyse de la variance des réponses entre enquêteurs[59].

Caractéristiques des enquêtés et fréquence des réponses « ne sait pas »

modifier

Aux États-Unis, de nombreuses études ont montré que, pour les questions factuelles ou de connaissance, les femmes sont plus susceptibles d’admettre et de déclarer leur ignorance (les hommes ont moins tendance à l’admettre). Les femmes tendent à hésiter plus à choisir une modalité de réponse, alors que les hommes « en moyenne », ont plus tendance à essayer de deviner le réponse[60]..

En général, plus le niveau d’éducation des répondants est bas, plus ceux-ci ont tendance à répondre « ne sait pas » ou « sans opinion »[61]. Pour les questions factuelles, il s’agit souvent d’une simple conséquence du manque de connaissance. Pour les questions d’opinion, cela peut résulter de la difficulté de comprendre la question, notamment de la complexité du langage utilisé[62].

Dans certaines enquêtes, plus l’âge de l’enquêté est élevé plus les réponses NSP sont fréquentes[63]. Mais on trouve également le résultat inverse[64].

Un facteur affectant le taux de réponse NSP est l’intérêt que la personne interrogée porte à l’enquête, ou même aux enquêtes du même type en général, et donc de degré de coopération de l’enquêté[65]. Mais la relation est plus faible qu’entre le taux de refus et le degré de non-coopération. Ici encore, la réponse NSP difffère de la non-réponse[66].

Le traitement des réponses NSP

modifier

Les réponses NSP peuvent être traitées comme de « vraies réponses ».

Une alternative, surtout utilisée quand le pourcentage de NSP est faible, est de les omettre de l’analyse, ce qui est équivalent à considérer que ceux qui ont répondu NSP se distribuent comme ceux qui ont répondu par une autre modalité. Par exemple ; ceux qui répondent « ne sais pas » à une question sur le candidat pour lequel ils voteraient « si des élections se tenaient aujourd’hui » sont supposés se répartir comme les électeurs qui ont choisi un candidat. Il est préférable d’omettre les NSP pour chaque groupe d’enquêtés (par exemple, les femmes rurales de 60 ans et plus sans emploi), et de pondérer les réponses par le nombre totale d’enquêtés de chaque groupe, y compris ceux ayant répondu NSP.

On peut aussi utiliser des méthodes d’imputation plus complexes[67].

Effets des réponses NSP sur l'analyse

modifier

Le plus important.

Sondages électoraux, opinion publique, politique et genre, voix des minorités, point de vue de Bourdieu...

Réponses NSP dans les enquêtes sur les connaissances

modifier

Les réponses NSP sont particulièrement importantes dans les enquêtes sur les connaissances (scientifiques ou autres) d'une population. Il serait possible de poser des questions du type « Savez vous [etc.] ? » avec les modalités « Je sais » et « Je ne sais pas », à condition de former les enquêtés et de s’assurer que ceux-ci « jouent le jeu ». Par exemple, on peut poser une question du type (« Quel est le nom du ministre actuel des transports ? » et proposer plusieurs noms, avec, éventuellement, une modalité « ne sait pas ». Les enquêtés qui ne savent pas ou ne sont pas sûr de leur réponse peuvent être encouragés :

  • Soit à choisir la modalité NSP plutôt que de choisir une réponse au hasard, ou de ne rien répondre
  • Soit de « tenter leur chance » en sélectionnant la réponse qui leur parait la plus probable -

Une alternative est de ne pas inclure de modalité NSP et de conseiller aux enquêtés qui ne savent pas de ne rien répondre (« sauter la question »), ou de choisir une modalité au hasard ou la modalité qui leur paraît la plus probable. Cette procédure simplifie la mise en œuvre de techniques d’analyse comme la « théorie de réponse à l’item »[68].

Réponses NSP et connaissances en politique

modifier

Fraile & Vasilopoulos (), Lay (03-2011), Mayer (2010), Michelat & Simon (1982), Mondak & Anderson (03-2003, 05-2004), Mondak & Davis (2001), Sturgis, Allum & Smith (2007), Tolleson-Rinehart & Josephson, eds. (2005).

  1. Généralement placée en fin de liste.
  2. Une réponse NSP qui se révèle être une réponse « oui, mais » peut être reclassée en « oui », une réponse NSP apparaissant comme un « non, mais » étant reclassée en « non ».
  3. Pickery & Loosveldt (2001).
  4. Shoemaker, Eichholz & Skewes (06-2002).
  5. Dubois & Burns (12-1975) ; Klopfer & Madden (03-1980) ; Lam, Allen & Green (05-2010).
  6. Harter (01-1997) ; Lam, Allen & Green (05-2010).
  7. Par exemple, la question « Le chômage est dû plus aux chômeurs qu’aux conditions économiques » pourra résulter, avec une option médiane, en « D'accord » : 32 % ; « Ni d’accord, ni en désaccord » : 20 % ; « Pas d'accord » : 38 % et « Ne sait pas » : 10%. La même question, mais sans option médiane donnera « D'accord » : 44 % ; « Pas d'accord » : 41 % et « Ne sait pas » : 15 %. Dans cet exemple hypothétique, le résultat global se retrouve inversé. Voir Johns (2005, 03-2010).
  8. Il est possible de repérer, de qualifier et même d'évaluer le degré d'ambivalence d'une personne en lui demandant son avis sur les différentes composantes positives et négatives de son attitude, mais cette technique alourdit considérablement le questionnaire d'enquête ou le formulaire. Voir, par exemple, Breckler (1984).
  9. Faulkenberry & Mason (1978)
  10. Par exemple, la méthode d’« analyse des correspondances des sous-ensembles » applicable aux réponses NSP de Greenacre & Pardo (11-2006).
  11. Cannel, Marquis & Laurent (1977) ; Cannel, Miller, & Oksenberg (1981).
  12. Martin (1983).
  13. Stube (1987).
  14. Schwarz (1990).
  15. Jabine, Tanur, Straf & Tourangeau (1984) ; Sudman, Bradburn, & Schwarz (1996) ; Schwarz & Sudman (1996) ; Sirken & Schechter (1999) ; Tanur (1999) ; Esposito, 2001 ; Presser et al. (2004)
  16. Tourangeau (1984).
  17. Tourangeau, Rips, & Rasinski (2000)
  18. Willis & Bercini (1991) ; Willis, Royston and Bercini (1991).
  19. Sander, Conrad, Mullin & Herrmann (1992).
  20. Forsyth & Hubbard (1992) développé par Lessler & Forsyth (1996a)
  21. Callegaro (09-2005).
  22. En anglais : retrieval.
  23. Dans une enquête en face-à-face ou par téléphone, il est courant que l’enquêté choisisse une modalité proposée avant que l’enquêteur n’ait fini d’en faire la liste.
  24. Krosnick (1991) ; Krosnick & Alwin (1987) ; Krosnick, Narayan and Smith (1996) ; Krosnick (1999).
  25. En anglais : (1) cognitive state . (2) adequacy judgments ; (3) communicative intent.
  26. Beatty & Herrmann (1995, 2002) ; Beatty, Herrmann, Puskar, & Kerwin (07-1998).
  27. Bauer & Joffe (1996).
  28. Voir, par exemple, l’enquête sur la mémoire collective, l’identité et les représentations socio-spatiales des habitants de Vichy. Haas (04-2003, 2007).
  29. Krosnick (1999)
  30. Converse (1964) ; Krosnick (1999) ; Krosnick et al., 2002.
  31. Bogart (1972) ; Converse & Presser (1986), Payne (1950) ; Vaillancourt (1973). Voir aussi Krosnick (2002) p.87.
  32. Krosnick (2002) p.93.
  33. Andrews (1984) ; Bishop et al. (1979).
  34. Alwin & Krosnick (1991).
  35. Poe et al. (1988) ; Krosnick & Berent (1990) ; Krsnick et al. (1999) ; McClendon & Alwin (1993) ; Sanchez & Morchio (1992).
  36. McClendon (1991) ; Presser (1977) ; Schuman & Presser (1981).
  37. Bishop, Oldendick, et Tuchfarber (1986) ; Coppoletta-Solotareff & Grobon (01-2016) ; Schuman et Presser (1981).
  38. Piau (2004) cité in Coppoletta-Solotareff & Grobon (01-2016)
  39. Bauer & Joffe (1996) ; Boudreau & Lupia (2011) ; Chang & Holland (2007), Miller & Orr (2008).
  40. Chang & Holland (2007).
  41. Chang & Holland (2007), Mondak & Davis (2001), Sturgis, Allum, and Smith (2008).
  42. Andrews et al. (07-2012) ; Smyth et al. (2006).
  43. Krosnick (2002).
  44. DeRouvray & Couper (2002).
  45. Boudreau & Lupia (2011), Brooks (09-2004), Francis & Busch (1975).
  46. Anderson, Canache & Mondak (2002).
  47. Krosnick et al. (2002).
  48. Kuran & McCaffery (09-2004).
  49. Beattty, Herrmann, Puskar & Kerwin (07-1998).
  50. Leigh & Martin (11-1987).
  51. Converse (1976) utilise la formule de « facilité de lecture » de Flesch.
  52. a et b Lam, Green & Bordignon (11-2002).
  53. Miller & Orr (2008), Sturgis, Allum & Smith (2007).
  54. Kronsnick et al. (2002).
  55. Lam, Green & Bordignon (11-2002).
  56. Harter (01-1997) ; Lam, Allen & Green (05-2010).
  57. Vicente & Reis (06-2010).
  58. Bilgen (08-2001).
  59. Japec (04-2006) ; O’Muircheartaigh & Campanelli (1999).
  60. Bauer, Allum & Miller (2007), Pickery & Loosveldt (1998), Singer, van Hoewyk & Maher (2000).
  61. Francis & Busch (1975), Krosnick et al. (2002), Pickery & Loosveldt (1998), Singer, van Hoewyk & Maher (2000).
  62. Converse (1976), Favre & Offerlé (2002).
  63. Pickery & Loosveldt (1998), Singer, van Hoewyk & Maher (2000).
  64. Joffe & Farr (1996).
  65. Krosnick et al. (2002).
  66. Schräpler (08-2004).
  67. Kroh (04-2006).
  68. En anglais ; item response theory.

Références

modifier
  • Alwin, Duane F. and Krosnick, Jon A. (1991). “The Reliability of Survey Attitude Measurement: The Influence of Question and Respondent Characteristics”. Sociological Methods and Research, Vol. 20, 1991, pp. 139-181.
  • Anderson, Mary; Canache, Damarys and Mondak, Jeffrey (2002). “The Knowledge Gap: A Reexamination of Gender-Based Differences in Political Knowledge”. Paper delivered at the annual meeting of the American Association for Public Opinion research, St Petersburg, 2002.
  • Bauer Martin (1996). “Socio-Economic Correlates of DK-Responses in Knowledge Surveys: Self-Attributed Ignorance of Science”, Social Science Information, Vol. 35, No. 1, 1996, pp. 39-68.
  • Bauer, Martin W.; Allum, Nick and Miller, Steve (2007). “What Can We Learn from 25 Years of PUS Survey Research? Liberating and Expanding the Agenda”. Public Understanding of Science, Vol. 16, No. 1, 2007, pp. 79-95.
  • Beatty, Paul and Herrmann, Douglas (1995). “A Framework for Evaluating “Don’t Know” Response in Surveys”. Proceedings of the Section on Survey Research Methods, America, Statistical Association, Washington, DC, 1995, pp. 1005-1010.
  • Beatty, Paul and Herrmann, Douglas (2002). “To Answer or not to Answer: Decision Processes Related to Survey Item Nonresponse”. Pp. 71-85 in Groves, R. M.; Dillman, D. A.: Eltinge, J. L. and Roderick, J. A. L., eds. “Survey Nonresponse” Wiley, New York, 2002.
  • Beattty, Paul; Herrmann, Douglas; Puskar, Cathy and Kerwin, Jeffrey (07-1998). “’Don't Know' Responses in Surveys: Is What I Know What You Want to Know and Do I Want You to Know It?” Memory, Vol. 6, No. 4, July 1998, pp. 407-426.
  • Bilgen, Ipek (08-2011). ”Is Less More & More Less…? The Effect of Two Types of Interviewer Experience on “Don’t Know” Responses in Calendar and Standardized Interviews”. PhD dissertation, graduate college at the University of Nebraska-Lincoln, August 2011, xv + 252 pp.
  • Bishop, G., Oldendick R. and Tuchfarber. A. (1986). “Opinions on Fictitious Issues: The Pressure to Answer Survey Questions.” Public Opinion Quarterly, Vol. 50, 1986, pp. 240–250.
  • Bourdieu, Pierre. (1973). « L’opinion publique n’existe pas », Les temps modernes, 378, 1973, pp. 1292-1309.
  • Brooks, Arthur C. (2004) What Do "Don't Know" Responses Really Mean in Giving Surveys? Nonprofit and Voluntary Sector Quarterly, Vol. 33, 2004, No. 3, September 3004, pp. 423-424.
  • Callegaro, Mario (09-2005) Origins and Developments of the Cognitive Models of Answering Questions in Survey Research. Working Paper No. 14, Program in Survey Research and Methodology, University of Nebraska, Lincoln, Gallup Research Center, September 2005, 47 pp.
  • Chang LinChiat and Holland, Keating (2007) Eliciting Valid Responses: Follow-Up Probes to “Don’t Knows” in Political Polls. Public Opinion Pos,
  • Converse, Jean M. (1976) Predicting No Opinion in the Polls. Public Opinion Quarterly, Vol. 40, No.4, 1976, pp. 515-530.
  • Coombs, C. H. and Coombs, L. C. (1975) “Don’t Know”: Item ambiguity or respondent uncertainty? Public Opinion Quarterly, Vol. 40, 1975, pp. 497-514.
  • Coppoletta-Solotareff, Rosalinda et Grobon, Sébastien (01-2016) Quel est l’impact d’un changement du mode de relance des répondants « sans opinion » ? Caractéristiques des répondants, du dispositif d’enquête et des questions affectant la réponse « ne sait pas ». Document de travail, Série méthodologie d’enquête, Direction de la recherche, des études, de l’évaluation et des statistiques (DREES), n° 55, Janvier 2016, 44 pp.
  • Das, A. and Deshmukh, J. (1997) What we Know about the “Don’t Knows” (and what we Know about What to do with Them). WAPOR Newsletter, 12-13.
  • DeRouvray, Cristel and Couper, Mick P. (2002) Designing a Strategy for Reducing “No Opinion” Responses in Web-Based Surveys. Social Science Computer Review, Vol. 20, No. 1, Spring 2002, pp. 3-9.
  • Durand, R.M. and Lambert, Z.L. (1988) Don’t Know Responses in Surveys: Analyses and Interpersonal Consequences. Journal of Business Research, Vol. 16, 1988, pp. 169-188.
  • Faulkenberry, G.D. and Mason, R. (1978) Characteristics of Nonopinion and No opinion Response Groups. Public Opinion Quarterly, Vol. 42, 1978, pp. 534-543.
  • Favre, Pierre et Offerlé, Michel (2002) Connaissances politiques, compétence politique ? Enquête sur les performances cognitives des étudiants français. Revue française de science politique, vol. 52, n° 2-3, 2002, pp. 201-232. (accès).
  • Feick, Lawrence F. (1989) Latent Class Analysis of Survey Questions that Include Don’t Know Responses. Public Opinion Quarterly, Vol. 53, Issue 4, 1989, pp. 525-547.
  • Fraile, Marta and Vasilopoulos, Pavlos () Studying the Persistent Gender Gap in Political Knowledge : Evidence from Greece. 28 pp.
  • Francis, Joe D. and Busch, Lawrence (1975) What We Now Know about “I don’t Knows”. Public Opinion Quarterly, Vol. 39, No.2, Summer 1975, pp. 207-218 (voir ici ou ici).
  • Garrigou, Alain (04-2011). « Que sais-je ? » et « Je ne sais pas ». La Monde Diplomatique, Régime d’opinion, Les blogs du Diplo, 26 avril 2011.Garrigou, Alain (04-2011). « Que sais-je ? » et « Je ne sais pas ». Le Monde Diplomatique, Régime d’opinion, Les blogs du Diplo, 26 avril 2011.
  • Gilljam, M. and Granberg, D. (1993). “Should we Take “Don’t Know” for an Answer?” Public Opinion Quarterly, Vol. 57, 1993, pp.348-357.
  • Greenacre, Michael and Pardo, Rafael (11-2006). “Subset Correspondence Analysis. Visualizing Relationships among a Selected Set of Response Categories from a Questionnaire Survey”. Sociological Methods Research, Vol. 35 No. 2, November 2006, pp. 193-218.
  • Groothuis, Peter. A. and Whitehead, John C. (2002). “Does Don’t Know Mean No? Analysis of ‘Don’t Know’ Responses in Contingent Valuation Questions”, Applied Economics, Vol. 34, No. 15, October 2002, pp. 1935-
  • Haas, Valérie (04-2003). « La « face cachée » de la mémoire ». Avril 2003, 11 pp.
  • Haener, Michel K. and Adamowicz, Wiktor L. (10-1998). “Analysis of “Don’t Know” Responses to Referendum Contingent Valuation Questions”. Agricultural and Resource Economics Review, Vol. 27, No. 2, October 1998, pp.218-230.
  • Hall, T.E. (2001). “Opinion Filters in Recreation Research: The Effect of Including “No Opinion” and “Not Notice” Response Categories in Questionnaires”. Tourism Analysis, Vol. 6, No. 1, 2001, pp. 1-15.
  • Harter, James Kevin (01-1997). “The Psychometric Utility of the Midpoint on a Likert Scale”. ETD Collection for University of Nebraska, Lincoln paper AAI9730273, Jan. 1997, ++ pp.
  • Heerwegh, Dirk and Loosveldt, Geert (10-2008). [http://poq.oxfordjournals.org/content/72/5/836.full.pdf+html “Face-to-Face versus Web Surveying in a High-Internet-Coverage Population: Differences in Response Quality” Public Opinion Quarterly, Vol. 72, No. 5, October 2008, pp. 836-846.
  • Holbrook, Allyson L.; Green, Melanie C. and Krosnick, Jon A. (2003). ‘‘Mode Effects on Satisficing and Social Desirability.’’ Public Opinion Quarterly, Vol. 67, 2003, pp. 79–125.
  • Japec, Lilli (04-2006). “Quality Issues in Interview Surveys. Some Contributions” Bulletin de méthodologie sociologique / Bulletin of Sociological Methodology, n° 90, avril 2006.
  • Joffe, Helene and Farr, R (1996). “Self-Proclaimed Ignorance about Public Affairs”. Social Science Information / Information sur les sciences sociales, Vol. 34, No. 1, 1996, pp. 69-92.
  • Juan, Salvador (1986). « L’ouvert et le fermé dans la pratique du questionnaire. Analyse comparative et spécificités de l’enquête par correspondance ». Revue française de sociologie, vol. 27, n° 27-2, 1986, pp. 301-316. accès)
  • Keeter, S., Kennedy, C., Dimock, M., Best, J., and Craighill, P. (2006). “Gauging the Impact of Growing Nonresponse on Estimates from a National RDD Telephone Survey”. Public Opinion Quarterly, Vol. 70, 2006, pp. 759-779.
  • Krosnick, Jon A.; Holbrook, Allyson L.; Berent, Matthew K.; Carson, Richard T.; Hanemann, W. Michael; Kopp, Raymond J.; Mitchell, Robert Cameron; Presser, Stanley; Rudd, Paul A.; Smith, V. Kerry; Moody, Wendy R.; Green, Melanie C. and Conaway, Michael (2002). “The Impact of “No Opinion” Response Options on Data Quality: Non-Attitude Reduction or an Invitation to Satisfice?” The Public Opinion Quarterly, Vol. 66, 2002, pp. 371-403 (aussi ici).
  • Lam, Tony C. M.; Allen, Gary and Green, Kathy E. (05-2010). “Is “Neutral” on a Likert Scale The Same As "Don’t Know" for Informed and Uninformed Respondents? Effects of Serial Position and Labeling on Selection of Response Options”. Paper presented at the annual meeting of the National Council on Measurement in Education, Denver, CO, May 2010, 37 pp.
  • Lam, Tony C.M.; Green, Kathy E. and Bordignon, Catherine (11-2002) Effects of Item Grouping and Position of the “Don't Know” Option on Questionnaire Response. Field Methods, Vol. 14, No. 4, November 2002, pp. 418-432.
  • Leigh, J.H. and Martin, C.R. Jr. (1987) "Don’t Know” Item Nonresponse in a Telephone Survey: Effects of Question Form and Respondent Characteristics. Journal of Marketing Research, Vol. 24, 1987, pp. 418-424.
  • Mayer, Nonna (2010). Sociologie des comportements politiques. Armand Colin, Collection U, 2010, 288 pp.
  • McClendon, M. J. (1986). Unanticipated Effects of No Opinion Filters on Attitudes and Attitude Strength. Sociological Perspectives, Vol. 29, 1986, pp.:379-95.
  • McClendon, M. J., and Alwin, D. F. (1993) No-Opinion Filters and Attitude Measurement Reliability. Sociological Methods and Research, Vol. 21, 1993, pp. 438-464.
  • Mondak, Jeffrey J. and Anderson, Mary R. (03-2003) A Knowledge Gap or a Guessing Game? Gender and Political Knowledge. Public Perspective, Vol.14, No. 2, March/April 2003, pp. 6–9.
  • Mondak, Jeffrey J. and Anderson. Mary R. (05-2004) The Knowledge Gap: A Reexamination of Gender-Based Differences in Political Knowledge. The Journal of Politics, Vol. 66, No. 2: May 2004, pp. 492–512.
  • Mondak, Jeffery J., and Davis. Belinda Creel (2001) Asked and Answered: Knowledge Levels When We Won’t Take ‘Don’t Know’ for an Answer. Political Behavior, Vol. 23, No. 3, 2001, pp. 199-224.
  • Piau, Claire (10-2004) Quelques expériences sur la formulation des questions d’enquête. A partir du matériau « Aspirations et conditions de vie des Français », Cahier de recherche n°206, Centre de recherche pour l’étude et l’observation des conditions de vie (Crédoc), oct. 2004, 65 pp.
  • Pickery, Jan and Loosveldt, Geert (1998) The Impact of Respondent and Interviewer Characteristics on the Number of “No Opinion” Answers: A Multilevel Model for Count Data. Quality & Quantity, Vol. 32, 1998, pp. 31-45.
  • Pickery, Jan and Loosveldt, Geert (2001) An Exploration of Question Characteristics that Mediate Interviewer Effects on Item Nonresponse. Journal of Official Statistics, Vol. 17, No. 3, 2001, pp. 337-350.
  • Pickery, Jan and Loosveldt, Geert (2004) A Simultaneous Analysis of Interviewer Effects on Various Data Quality Indicators with Identification of Exceptional Interviewers. Journal of Official Statistics, Vol. 20, No. 1, 2004, pp. 77-89.
  • Porreca, Kelsey (2012) An Investigation of No Opinion and Don’t Know Responses. The Ohio State University, 37th Annual Conference of the Midwest Association for Public Opinion Research, “Innovations in Measuring and Understanding Public Opinion”, Chicago; IL, November 16-17, 2012, 15 pp. Slides, 14 pp.
  • Sayedi, Amin; Zadimoghaddam, Morteza and Blum, Avrim (2010). “Trading off Mistakes and Don’t Know Responses in Online Learning”. Présentation, 16 pp.
  • Schuman, Howard and Presser, Stanley (1980). “Public Opinion and Public Ignorance: The Fine Line between Attitudes and Nonattitudes”. The American Journal of Sociology, Vol. 85, 1980, pp. 1214-1225.
  • Shoemaker, P.J., Eichholz, M., and Skewes, E.A. (2000). “Item Nonreponse: Distinguishing between Don’t Know and Refuse”. International Journal of Public Opinion Research, Vol. 14, 2000, p. 193-201.
  • Sturgis, Patrick; Allum, Nick and Smith, Patten (2007). “An Experiment on the Measurement of Political Knowledge in Surveys”. Public Opinion Quarterly, Advance access publiqhed September 21, 2007, 13 pp. (voir ici).
  • Turner, Jill and Michael, Mike (03-1996). “What Do We Know about ‘Don’t Knows’? Or, Contexts of Ignorance,” Social Science Information, Vol. 35, March 1996, pp. 15–37.
  • Vicente, Paula and Reis, Elizabeth (06-2010). “Using Questionnaire Design to Fight Nonresponse Bias in Web Surveys”. Social Science Computer Review, Vol. 28, No. 2, May 2010, pp. 251-267.