Fachgruppe Sozialpsychologie
Jens Lange, Juliane Degner, Ilka H. Gleibs, Eva Jonas
求助PDF
{"title":"<b>Fachgruppe Sozialpsychologie</b>","authors":"Jens Lange, Juliane Degner, Ilka H. Gleibs, Eva Jonas","doi":"10.1026/0033-3042/a000641","DOIUrl":null,"url":null,"abstract":"Free AccessFachgruppe SozialpsychologieFaires und valides Shortlisting in Phase 1Jens Lange, Juliane Degner, Ilka H. Gleibs, and Eva JonasJens LangeDr. Jens Lange, Institut für Psychologie, Universität Hamburg, Von-Melle-Park 5, 20146 Hamburg, Deutschland, [email protected]Institut für Psychologie, Universität Hamburg, DeutschlandSearch for more papers by this author, Juliane DegnerInstitut für Psychologie, Universität Hamburg, DeutschlandSearch for more papers by this author, Ilka H. GleibsDepartment of Psychological and Behavioural Science, London School of Economics, Great BritainSearch for more papers by this author, and Eva JonasFachbereich Psychologie, Paris-Lodron Universität Salzburg, ÖsterreichSearch for more papers by this authorPublished Online:July 27, 2023https://doi.org/10.1026/0033-3042/a000641PDF ToolsAdd to favoritesDownload CitationsTrack Citations ShareShare onFacebookTwitterLinkedInReddit SectionsMoreDie Unterzeichnung von CoARA (https://coara.eu/) und DORA (https://sfdora.org) waren wichtige Bekenntnisse der DGPs zur Sicherstellung fairer und valider Berufungsverfahren. Um dieses Bekenntnis mit Leben zu füllen, erarbeiteten Gärtner, Leising und Schönbrodt (2023) aufbauend auf zentralen vorherigen Beiträgen (Gärtner, Leising & Schönbrodt, 2022; Schönbrodt et al., 2022) einen konkreten Vorschlag, wie Forschungsleistungen von Bewerber_innen in Berufungsverfahren beurteilt werden können. Wir stimmen zu, dass dieser Schritt von zentraler Bedeutung ist.Der Unterschied zu jetzigen Berufungsverfahren liegt primär in Phase 1, in der Bewerber_innen anhand konkreter Kriterien für qualitativ hochwertige Forschung quantitativ eingeschätzt werden. Laut Vorschlag sollen nur Bewerber_innen, die eine Mindest-Schwelle von Punkten überschreiten, für eine nähere Begutachtung in Phase 2 ausgewählt werden; ein Shortlisting. Phase 2 unterscheidet sich dagegen wenig von bisherigen Berufungsverfahren nach dem typischen Vorsingen. Die Fairness und Validität zukünftiger Berufungsverfahren hängt folglich entscheidend von der Ausgestaltung von Phase 1 ab.Wir stimmen mit Gärtner et al. (2023) überein, dass ein multidimensionales Punktesystem zur Bewertung der Forschungsqualität in Phase 1 dem jetzigen System gegenüber zu bevorzugen ist und halten das vorgeschlagene multidimensionale Punktesystem (Gärtner et al., 2022) für sehr gelungen. Allerdings sehen wir weitere Wege, Phase 1 sowohl fairer als auch valider zu gestalten. Im Folgenden gehen wir auf diese Wege näher ein.Erhöhung der FairnessGärtner et al. (2022) stellen konkrete Kriterien und Gewichtungsmöglichkeiten zur Bewertung von Publikationen, Datensätzen und Software vor, die Kommissionen unmittelbar verwenden können. Darüber hinaus bleibt es einer Berufungskommission freigestellt, dieses Punktesystem für sich zu ändern. Zu diesem Prozess möchten wir drei Vorschläge machen, die die Fairness des Punktesystems erhöhen können.Erstens, die Kriterien sollten von der Berufungskommission spätestens mit der Verabschiedung der Ausschreibung feststehen. Bisher ist es durchaus üblich, dass Berufungskommissionen die Kriterien nach der Verabschiedung durch den Fakultätsrat, jedoch vor dem Einsehen der Bewerbungen, noch einmal ändern. Diese Praxis ermöglicht, dass im Rahmen von Berufungskommissionen das Punktesystem durch einzelne Kommissionsmitglieder nach eigenen Vorstellungen abgewandelt wird. Das ist potenziell unfair. Um dies zu verhindern, schlagen wir vor, dass das Punktesystem transparent mit der Ausschreibung veröffentlicht wird.Zweitens, um diesen Prozess zu erleichtern, muss eine Berufungskommission nicht notwendigerweise jedes Mal ein neues Punktesystem ausarbeiten. Solch ein Punktesystem wäre womöglich sogar unfair, da selten viele Mitglieder der Berufungskommission selbst im Feld der Denomination der ausgeschriebenen Professur arbeiten. Es wäre natürlich möglich, einfach für jede Ausschreibung das gleiche Punktesystem zu verwenden, bspw. das was Gärtner et al. (2022) vorschlagen. Allerdings wird dieses System nicht auf das Profil jeder Professur passen. Ein Mittelweg könnte sein, dass sich jedes Institut auf eine Reihe von Punktesystemen einigt, die für Professuren einer jeweiligen Denomination passen. Sobald eine bestehende Professur neu besetzt wird, kann dieses Punktesystem als Basis herangezogen werden.Drittens, um den Aufwand einzelner Institute zu verringern, könnten DGPs Fachgruppen für Professuren mit ihrer Denomination ein übergeordnetes Punktesystem ausarbeiten, das Institute dann zu Rate ziehen können. Beispielsweise hat die Fachgruppe Sozialpsychologie eine Stellungnahme zur Qualität, Replizierbarkeit und Transparenz sozialpsychologischer Forschung verabschiedet, aus der sich ein fachspezifisches Punktesystem ableiten ließe (https://www.dgps.de/fachgruppen/sozialpsychologie/aktivitaeten/aktuelle-mitteilungen/news-details/stellungnahme-zur-qualitaetssicherung-in-der-forschung/). Mit Punktesystemen, die durch die Fachgruppen der DGPs entwickelt wurden, könnte eine deutschlandweit vergleichbare und damit faire Auswahl von Bewerber_innen sichergestellt werden.Erhöhung der ValiditätDas Shortlisting in Phase 1 kürzt (hoffentlich) die Menge an Bewerber_innen auf eine übersichtliche Anzahl. Um das Shortlisting so einfach wie möglich zu machen, schlagen Gärtner et al. (2023) vor, dass studentische Hilfskräfte Angaben von Bewerber_innen in eine Maske eintragen, ein Algorithmus die Punkte der Bewerber_innen errechnet und dann mit Anwendung einer Schwelle nur die besten ca. acht Bewerber_innen zu Phase 2 einlädt. Dieses Vorgehen ist vielversprechend, birgt allerdings zwei Gefahren.Erstens, selbst wenn die zu Rate gezogenen Kriterien valide sind, bleibt im jetzigen System unklar, zu welchen Aspekten der Forschungsleistung ein_e Bewerber_in beigetragen hat. Bewerber_innen können alle Forschungsleistungen einreichen, zu denen sie wesentliche Beiträge geleistet haben, also eine (Ko–)Autor_innenschaft haben. Hier ergebt sich eine Gefahr, die sich an der immer wichtiger werdenden Big Team Science verdeutlichen lässt (Coles, DeBruine, Azevedo, Baumgartner & Frank, 2023), sich aber auf jegliche Art der (Ko–)Autor_innenschaft übertragen lässt. So erhalten beispielsweis Ko-Autor_innen eines Big Team Science Projekts selbst bei minimalem Beitrag die gleiche Punktzahl wie der / die Initiator_in des Projekts. Wegen des hohen Aufwands dieses Projekt zu leiten, konnte der / die Initiator_in wahrscheinlich kaum ein anderes Projekt parallel leiten, erreicht dann in der Summe weniger Punkte als die anderen Bewerber_innen, die dafür noch Zeit hatten, und wird nicht eingeladen. Das wäre unserer Meinung nach eine invalide Entscheidung.Wir schlagen daher vor, ausschließlich für die Kriterien Punkte zu verteilen, zu denen ein:e Bewerber_in auch einen wesentlichen Beitrag geleistet hat. Bspw. würde nur ein Punkt für eine Präregistrierung vergeben, wenn der / die Bewerber_in eben auch die Präregistierung wesentlich mit erarbeitet hat. Diese Instruktion könnte den Bewerber_innen beim Beantworten der Kriterien gegeben werden. Damit wäre der Punktwert eines / einer Bewerbers / Bewerberin eher im Einklang mit der tatsächlichen Forschungsleistung und damit valider.Zweitens, wir sehen es kritisch, die Schwelle für die Einladung von Bewerber_innen für Phase 2 davon abhängig zu machen, welche Verteilung von Punkten im Pool der Bewerber_innen vorliegt. Es ist davon auszugehen, dass die von Gärtner et al. (2022) aufgelisteten Kriterien in Zukunft von einer Vielzahl von Bewerber_innen in den meisten Forschungsleistungen erfüllt werden (für den positiven Trend bei Publikationen, siehe bspw. Motyl et al., 2017). Journale, Software- und Daten-Repositorien verlangen die Einhaltung dieser Kriterien zunehmend. Unterschiede zwischen einer Vielzahl von Bewerber_innen mit durchschnittlich vielen Punkten sind dann in gewisser Weise nur Messfehler, womöglich verursacht durch unterschiedliche Formate von Forschungsleistungen, die durch das Punktesystem nur unzulänglich abgedeckt werden (bspw. theoretische Artikel). Und gerade solche Unterschiede können durch algorithmisches Auszählen von Punkten nicht adäquat berücksichtigt werden.Wir schlagen daher vor, die Schwelle für die weitere Berücksichtigung von Bewerber_innen im Vorfeld festzulegen und alle Bewerber_innen zu berücksichtigen, die diese Schwelle überschreiten. Welche weiteren Kriterien entscheiden dann, welche acht Bewerber_innen für Phase 2 eingeladen werden? Hier sehen wir, wie Gärtner et al. (2023), neben Forschungsleistungen auch andere Bewertungsdimensionen (d. h., Lehre, Führung, akademische Selbstverwaltung und gesellschaftlicher Impact) als entscheidend an. Auch dazu gilt es, diese Dimensionen und ihre Wichtung transparent bei Ausschreibung einer Stelle bekannt zu geben. Das impliziert auch, dass Qualifikationen neben den reinen Forschungsleistungen nicht zu unverbindlichen Variablen werden, deren Gewichtung in Berufungskommissionen je nach subjektiver Passung verschoben werden. Wir erwarten, dass zukünftig gerade auf diesen Bewertungsdimensionen weitaus mehr Unterschiede zwischen Bewerber_innen existieren werden, die, je nach Stellenprofil, entscheidenden Einfluss auf eine Berufung haben sollten. Daher halten wir es für eine zentrale Aufgabe der DGPs, in naher Zukunft ähnlich innovative Wege der Quantifizierung dieser Bewertungsdimensionen auszuarbeiten, wie Gärtner et al. (2023) es für Forschungsleistungen bereits getan haben.LiteraturColes, N. A., DeBruine, L. M., Azevedo, F., Baumgartner, H. A. & Frank, M. C. (2023). ‘Big team’ science challenges us to reconsider authorship. Nature Human Behaviour. https://doi.org/10.1038/s41562-023-01572-2 First citation in articleCrossref, Google ScholarGärtner, A., Leising, D. & Schönbrodt, F. (2023). Empfehlungen zur Bewertung wissenschaftlicher Leistungen bei Berufungsverfahren in der Psychologie. Psychologische Rundschau, 74, 166 – 174. https://doi.org/10.1026/0033-3042/a000630 First citation in articleAbstract, Google ScholarGärtner, A., Leising, D. & Schönbrodt, F. D. (2022). Responsible Research Assessment II: A specific proposal for hiring and promotion in psychology. [PsyArXiv Preprint online]. https://doi.org/10.31234/osf.io/5yexm First citation in articleCrossref, Google ScholarMotyl, M., Demos, A. P., Carsel, T. S., Hanson, B. E., Melton, Z. J., Mueller, A. B. et al. (2017). The state of social and personality science: Rotten to the core, not so bad, getting better, or getting worse? Journal of Personality and Social Psychology, 113 (1), 34 – 58. https://doi.org/10.1037/pspa0000084 First citation in articleCrossref, Google ScholarSchönbrodt, F. D., Gärtner, A., Frank, M., Gollwitzer, M., Ihle, M., Mischkowski, D. et al. (2022). Responsible Research Assessment I: Implementing DORA for hiring and promotion in psychology. [PsyArXiv Preprint online]. https://doi.org/10.31234/osf.io/rgh5b First citation in articleCrossref, Google ScholarFiguresReferencesRelatedDetails Diskussionsforum: Empfehlungen zur Bewertung wissenschaftlicher Leistungen bei Berufungsverfahren in der PsychologieVolume 74Issue 3Juli 2023ISSN: 0033-3042eISSN: 2190-6238 InformationPsychologische Rundschau (2023), 74, pp. 187-190 https://doi.org/10.1026/0033-3042/a000641.© 2023Hogrefe VerlagPDF download","PeriodicalId":51866,"journal":{"name":"Psychologische Rundschau","volume":"101 1","pages":"0"},"PeriodicalIF":1.4000,"publicationDate":"2023-07-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":null,"platform":"Semanticscholar","paperid":null,"PeriodicalName":"Psychologische Rundschau","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.1026/0033-3042/a000641","RegionNum":4,"RegionCategory":"心理学","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"Q3","JCRName":"PSYCHOLOGY, MULTIDISCIPLINARY","Score":null,"Total":0}
引用次数: 0
引用
批量引用
Abstract
Free AccessFachgruppe SozialpsychologieFaires und valides Shortlisting in Phase 1Jens Lange, Juliane Degner, Ilka H. Gleibs, and Eva JonasJens LangeDr. Jens Lange, Institut für Psychologie, Universität Hamburg, Von-Melle-Park 5, 20146 Hamburg, Deutschland, [email protected]Institut für Psychologie, Universität Hamburg, DeutschlandSearch for more papers by this author, Juliane DegnerInstitut für Psychologie, Universität Hamburg, DeutschlandSearch for more papers by this author, Ilka H. GleibsDepartment of Psychological and Behavioural Science, London School of Economics, Great BritainSearch for more papers by this author, and Eva JonasFachbereich Psychologie, Paris-Lodron Universität Salzburg, ÖsterreichSearch for more papers by this authorPublished Online:July 27, 2023https://doi.org/10.1026/0033-3042/a000641PDF ToolsAdd to favoritesDownload CitationsTrack Citations ShareShare onFacebookTwitterLinkedInReddit SectionsMoreDie Unterzeichnung von CoARA (https://coara.eu/) und DORA (https://sfdora.org) waren wichtige Bekenntnisse der DGPs zur Sicherstellung fairer und valider Berufungsverfahren. Um dieses Bekenntnis mit Leben zu füllen, erarbeiteten Gärtner, Leising und Schönbrodt (2023) aufbauend auf zentralen vorherigen Beiträgen (Gärtner, Leising & Schönbrodt, 2022; Schönbrodt et al., 2022) einen konkreten Vorschlag, wie Forschungsleistungen von Bewerber_innen in Berufungsverfahren beurteilt werden können. Wir stimmen zu, dass dieser Schritt von zentraler Bedeutung ist.Der Unterschied zu jetzigen Berufungsverfahren liegt primär in Phase 1, in der Bewerber_innen anhand konkreter Kriterien für qualitativ hochwertige Forschung quantitativ eingeschätzt werden. Laut Vorschlag sollen nur Bewerber_innen, die eine Mindest-Schwelle von Punkten überschreiten, für eine nähere Begutachtung in Phase 2 ausgewählt werden; ein Shortlisting. Phase 2 unterscheidet sich dagegen wenig von bisherigen Berufungsverfahren nach dem typischen Vorsingen. Die Fairness und Validität zukünftiger Berufungsverfahren hängt folglich entscheidend von der Ausgestaltung von Phase 1 ab.Wir stimmen mit Gärtner et al. (2023) überein, dass ein multidimensionales Punktesystem zur Bewertung der Forschungsqualität in Phase 1 dem jetzigen System gegenüber zu bevorzugen ist und halten das vorgeschlagene multidimensionale Punktesystem (Gärtner et al., 2022) für sehr gelungen. Allerdings sehen wir weitere Wege, Phase 1 sowohl fairer als auch valider zu gestalten. Im Folgenden gehen wir auf diese Wege näher ein.Erhöhung der FairnessGärtner et al. (2022) stellen konkrete Kriterien und Gewichtungsmöglichkeiten zur Bewertung von Publikationen, Datensätzen und Software vor, die Kommissionen unmittelbar verwenden können. Darüber hinaus bleibt es einer Berufungskommission freigestellt, dieses Punktesystem für sich zu ändern. Zu diesem Prozess möchten wir drei Vorschläge machen, die die Fairness des Punktesystems erhöhen können.Erstens, die Kriterien sollten von der Berufungskommission spätestens mit der Verabschiedung der Ausschreibung feststehen. Bisher ist es durchaus üblich, dass Berufungskommissionen die Kriterien nach der Verabschiedung durch den Fakultätsrat, jedoch vor dem Einsehen der Bewerbungen, noch einmal ändern. Diese Praxis ermöglicht, dass im Rahmen von Berufungskommissionen das Punktesystem durch einzelne Kommissionsmitglieder nach eigenen Vorstellungen abgewandelt wird. Das ist potenziell unfair. Um dies zu verhindern, schlagen wir vor, dass das Punktesystem transparent mit der Ausschreibung veröffentlicht wird.Zweitens, um diesen Prozess zu erleichtern, muss eine Berufungskommission nicht notwendigerweise jedes Mal ein neues Punktesystem ausarbeiten. Solch ein Punktesystem wäre womöglich sogar unfair, da selten viele Mitglieder der Berufungskommission selbst im Feld der Denomination der ausgeschriebenen Professur arbeiten. Es wäre natürlich möglich, einfach für jede Ausschreibung das gleiche Punktesystem zu verwenden, bspw. das was Gärtner et al. (2022) vorschlagen. Allerdings wird dieses System nicht auf das Profil jeder Professur passen. Ein Mittelweg könnte sein, dass sich jedes Institut auf eine Reihe von Punktesystemen einigt, die für Professuren einer jeweiligen Denomination passen. Sobald eine bestehende Professur neu besetzt wird, kann dieses Punktesystem als Basis herangezogen werden.Drittens, um den Aufwand einzelner Institute zu verringern, könnten DGPs Fachgruppen für Professuren mit ihrer Denomination ein übergeordnetes Punktesystem ausarbeiten, das Institute dann zu Rate ziehen können. Beispielsweise hat die Fachgruppe Sozialpsychologie eine Stellungnahme zur Qualität, Replizierbarkeit und Transparenz sozialpsychologischer Forschung verabschiedet, aus der sich ein fachspezifisches Punktesystem ableiten ließe (https://www.dgps.de/fachgruppen/sozialpsychologie/aktivitaeten/aktuelle-mitteilungen/news-details/stellungnahme-zur-qualitaetssicherung-in-der-forschung/). Mit Punktesystemen, die durch die Fachgruppen der DGPs entwickelt wurden, könnte eine deutschlandweit vergleichbare und damit faire Auswahl von Bewerber_innen sichergestellt werden.Erhöhung der ValiditätDas Shortlisting in Phase 1 kürzt (hoffentlich) die Menge an Bewerber_innen auf eine übersichtliche Anzahl. Um das Shortlisting so einfach wie möglich zu machen, schlagen Gärtner et al. (2023) vor, dass studentische Hilfskräfte Angaben von Bewerber_innen in eine Maske eintragen, ein Algorithmus die Punkte der Bewerber_innen errechnet und dann mit Anwendung einer Schwelle nur die besten ca. acht Bewerber_innen zu Phase 2 einlädt. Dieses Vorgehen ist vielversprechend, birgt allerdings zwei Gefahren.Erstens, selbst wenn die zu Rate gezogenen Kriterien valide sind, bleibt im jetzigen System unklar, zu welchen Aspekten der Forschungsleistung ein_e Bewerber_in beigetragen hat. Bewerber_innen können alle Forschungsleistungen einreichen, zu denen sie wesentliche Beiträge geleistet haben, also eine (Ko–)Autor_innenschaft haben. Hier ergebt sich eine Gefahr, die sich an der immer wichtiger werdenden Big Team Science verdeutlichen lässt (Coles, DeBruine, Azevedo, Baumgartner & Frank, 2023), sich aber auf jegliche Art der (Ko–)Autor_innenschaft übertragen lässt. So erhalten beispielsweis Ko-Autor_innen eines Big Team Science Projekts selbst bei minimalem Beitrag die gleiche Punktzahl wie der / die Initiator_in des Projekts. Wegen des hohen Aufwands dieses Projekt zu leiten, konnte der / die Initiator_in wahrscheinlich kaum ein anderes Projekt parallel leiten, erreicht dann in der Summe weniger Punkte als die anderen Bewerber_innen, die dafür noch Zeit hatten, und wird nicht eingeladen. Das wäre unserer Meinung nach eine invalide Entscheidung.Wir schlagen daher vor, ausschließlich für die Kriterien Punkte zu verteilen, zu denen ein:e Bewerber_in auch einen wesentlichen Beitrag geleistet hat. Bspw. würde nur ein Punkt für eine Präregistrierung vergeben, wenn der / die Bewerber_in eben auch die Präregistierung wesentlich mit erarbeitet hat. Diese Instruktion könnte den Bewerber_innen beim Beantworten der Kriterien gegeben werden. Damit wäre der Punktwert eines / einer Bewerbers / Bewerberin eher im Einklang mit der tatsächlichen Forschungsleistung und damit valider.Zweitens, wir sehen es kritisch, die Schwelle für die Einladung von Bewerber_innen für Phase 2 davon abhängig zu machen, welche Verteilung von Punkten im Pool der Bewerber_innen vorliegt. Es ist davon auszugehen, dass die von Gärtner et al. (2022) aufgelisteten Kriterien in Zukunft von einer Vielzahl von Bewerber_innen in den meisten Forschungsleistungen erfüllt werden (für den positiven Trend bei Publikationen, siehe bspw. Motyl et al., 2017). Journale, Software- und Daten-Repositorien verlangen die Einhaltung dieser Kriterien zunehmend. Unterschiede zwischen einer Vielzahl von Bewerber_innen mit durchschnittlich vielen Punkten sind dann in gewisser Weise nur Messfehler, womöglich verursacht durch unterschiedliche Formate von Forschungsleistungen, die durch das Punktesystem nur unzulänglich abgedeckt werden (bspw. theoretische Artikel). Und gerade solche Unterschiede können durch algorithmisches Auszählen von Punkten nicht adäquat berücksichtigt werden.Wir schlagen daher vor, die Schwelle für die weitere Berücksichtigung von Bewerber_innen im Vorfeld festzulegen und alle Bewerber_innen zu berücksichtigen, die diese Schwelle überschreiten. Welche weiteren Kriterien entscheiden dann, welche acht Bewerber_innen für Phase 2 eingeladen werden? Hier sehen wir, wie Gärtner et al. (2023), neben Forschungsleistungen auch andere Bewertungsdimensionen (d. h., Lehre, Führung, akademische Selbstverwaltung und gesellschaftlicher Impact) als entscheidend an. Auch dazu gilt es, diese Dimensionen und ihre Wichtung transparent bei Ausschreibung einer Stelle bekannt zu geben. Das impliziert auch, dass Qualifikationen neben den reinen Forschungsleistungen nicht zu unverbindlichen Variablen werden, deren Gewichtung in Berufungskommissionen je nach subjektiver Passung verschoben werden. Wir erwarten, dass zukünftig gerade auf diesen Bewertungsdimensionen weitaus mehr Unterschiede zwischen Bewerber_innen existieren werden, die, je nach Stellenprofil, entscheidenden Einfluss auf eine Berufung haben sollten. Daher halten wir es für eine zentrale Aufgabe der DGPs, in naher Zukunft ähnlich innovative Wege der Quantifizierung dieser Bewertungsdimensionen auszuarbeiten, wie Gärtner et al. (2023) es für Forschungsleistungen bereits getan haben.LiteraturColes, N. A., DeBruine, L. M., Azevedo, F., Baumgartner, H. A. & Frank, M. C. (2023). ‘Big team’ science challenges us to reconsider authorship. Nature Human Behaviour. https://doi.org/10.1038/s41562-023-01572-2 First citation in articleCrossref, Google ScholarGärtner, A., Leising, D. & Schönbrodt, F. (2023). Empfehlungen zur Bewertung wissenschaftlicher Leistungen bei Berufungsverfahren in der Psychologie. Psychologische Rundschau, 74, 166 – 174. https://doi.org/10.1026/0033-3042/a000630 First citation in articleAbstract, Google ScholarGärtner, A., Leising, D. & Schönbrodt, F. D. (2022). Responsible Research Assessment II: A specific proposal for hiring and promotion in psychology. [PsyArXiv Preprint online]. https://doi.org/10.31234/osf.io/5yexm First citation in articleCrossref, Google ScholarMotyl, M., Demos, A. P., Carsel, T. S., Hanson, B. E., Melton, Z. J., Mueller, A. B. et al. (2017). The state of social and personality science: Rotten to the core, not so bad, getting better, or getting worse? Journal of Personality and Social Psychology, 113 (1), 34 – 58. https://doi.org/10.1037/pspa0000084 First citation in articleCrossref, Google ScholarSchönbrodt, F. D., Gärtner, A., Frank, M., Gollwitzer, M., Ihle, M., Mischkowski, D. et al. (2022). Responsible Research Assessment I: Implementing DORA for hiring and promotion in psychology. [PsyArXiv Preprint online]. https://doi.org/10.31234/osf.io/rgh5b First citation in articleCrossref, Google ScholarFiguresReferencesRelatedDetails Diskussionsforum: Empfehlungen zur Bewertung wissenschaftlicher Leistungen bei Berufungsverfahren in der PsychologieVolume 74Issue 3Juli 2023ISSN: 0033-3042eISSN: 2190-6238 InformationPsychologische Rundschau (2023), 74, pp. 187-190 https://doi.org/10.1026/0033-3042/a000641.© 2023Hogrefe VerlagPDF download
社会心理学专业组
实务社会心理学公平正直正直的社会心理学为什么会是那样?Jens久汉堡大学认知科学研究所Von-Melle-Park 5、德国汉堡20146[电子邮件protected]学院心理学,汉堡大学DeutschlandSearch for更多卷《this author, Juliane DegnerInstitut为汉堡大学心理学DeutschlandSearch for更多卷《this author, Ilka h GleibsDepartment of心理and Behavioural福利《科学伦敦经济学院BritainSearch for更多卷《this author,和夏娃JonasFachbereich心理学,Paris-Lodron萨尔茨堡大学österreichsearch for更多27卷《this authorPublished在线:July, 2023https: / / doi.org/10.1026/0033-3042/a000641PDF ToolsAdd to favoritesDownload CitationsTrack Citations ShareShare onFacebookTwitterLinkedInReddit SectionsMoreDie签署CoARA (https://coara.eu/)和朵拉(https://sfdora.org)是重要的DGPs为了确保公正和valider上诉.旨在为这一承诺提供生命支持的园丁、衣物和chenbrodt(2023)应基于核心前贡献(园丁、莱辛和chenbrodt, 2022)(2022)关于如何评价女性候选人在上诉中的研究表现的具体建议。我们也同意这是至关重要的一步。与目前的上诉程序不同主要是在第1阶段,根据进行高质量研究的具体标准对女性候选人进行准确的评价。根据建议,在进行第二阶段审查时,只应挑选合格的妇女候选人供进一步评估;一个Shortlisting .不过第二阶段跟传统的上诉案并没有什么不同和公平的未来而上诉结果,关键取决于其中的第一阶段ab.Wir声音跟园丁等人.(2023年)中,同意multidimensionales扣分机制,用以评估Forschungsqualität在第一阶段对目前制度的偏好是保持和拟设立多层面扣分机制(园丁等人. 2022年)给非常成功.你说的对接着我们会更仔细探讨这些线索。2022年将缺点标准及权重权重政策委员会可直接使用的出版物、记录和软件。此外,你可以自由的上诉委员会来改变扣分机制让我们建议三种方法首先,上诉委员会应至迟在通过招标书之时,就敲定基准。到目前为止,上诉委员会在教师委员会通过之后以及在学生被分配到学校之前就重新设定规定是很普遍的。这种做法可以在上诉委员会框架内,让委员会成员按自己的想法实行计分。有可能为了避免这种情况,我们建议实行计分的机制应该以公开的方式公布其次,为了促进这一进程,上诉委员会不必一直采用一套新的计分机制这样的扣分机制甚至可能是不公平的,因为上诉委员会很少有许多人在被宣布为教授的分类学领域工作。当然这是完全可以采用的一套计分系统,bspw2022年)但是所有教授的资料都不符合这个系统其中一个折衷的方式是,每个研究所将同意非常适合不同地理学意义的多种选择。当一个原有的教授被替换时,点系统可以作为基础。第三,为了减少某一机构的投入,DGPs的教授小组可以采用他们的认知能力机制来设计一个全方位的分数机制,然后由机构作为参考。比如有一个研究的表态,以质量、复制和透明度sozialpsychologischer研究活动中,通过一个fachspezifisches扣分机制的决策可以(https://www.dgps.de/fachgruppen/sozialpsychologie/aktivitaeten/aktuelle-mitteilungen/news-details/stellungnahme-zur-qualitaetssicherung-in-der-forschung/) . 当然,如果你保留在不同的意义上的话,你也可以选择不同的人。在第1阶段对居民的批准名单的增加可以(希望)减少对彼此的审核数量为了做尽可能简单的Shortlisting是园丁的al .(2023),建议让studentische辅助人员资料由算法在面具登记Bewerber_innen Bewerber_innen得出的分数,再用实施大约只有最棒的门槛8 Bewerber_innen第二阶段邀请.这个方法很有希望,但同时也有两个危险。第一,即使所有的标准都是有效的目前的系统不清楚每一阶段的研究成果Bewerber_innen都可以提交Forschungsleistungen把重要的捐款,所以有(晕)Autor_innenschaft有.在投降危险,越来越重要的大团队科学表明,让柯斯(DeBruine Azevedo, Baumgartner & Frank 2023),但任何方式(晕)Autor_innenschaft能转移.举个例子,魏斯还获得了同样的得分即使她的贡献很小由于用了大量金钱来领导这一项目,首批人选与其他项目的联线很可能是同一个项目,其分数低于其他申请申请的妇女,而不获邀请。我们认为,这是一个分裂的决定。我们建议只分配标准Bspw .只会有一分Präregistrierung宽恕时/Bewerber_in只是Präregistierung也大大编写的与.当回复标准时可给予女性候选人的指示这样,每一个应聘者/候选人的分数就更符合实际研究业绩,从而使准目标变得更有意义。第二阶段:根据每个候选人提名的分数的分配情况决定让女性候选人进入第二阶段的门槛是很敏感的2022年,约翰·嘉特和阿丽嘉列出来的标准显然将会大部分研究成就都符合(关于出版物方面的积极趋势,见bspw)。2017年)模型、软件和数据储存的需求越来越大。所采用的办法是,许多中等分数候选人之间的差异,可能是测量错误,所导致的研究成果格式不同,而分机制所覆盖的范围不完全(bspw)。理论文章).而这些差异,通过算法统计某点完全不能充分反映出来。因此,我们建议对更多的女性候选人实行事先登记的门槛,并对所有超过这个门槛的女性设一个门槛。那么,什么其它标准来决定哪些八名女性被邀请参与第二阶段?2023年,我们看到园丁和阿尔。他认为,除了提供研究成果之外,在研究成果方面(例如:教学、领导、学术政府、社会影响)的影响都是至关重要的。即便是这些维度,它在招标时也必须以透明方式公布。这还意味着技能不能在单纯的研究成果以外变成不确定的变量因主观的适应情况而改为上诉委员会正是在这些评估方面我们预计女性候选人之间也会有更多的差别这要视职位情况而决定她们对任命的影响力因此,我们认为,气象局的中心工作是在不久的将来发展类似的创新方法,就像2023年的园丁等英国文学学院(2023年)关于现在重新确定的科学挑战自然人类行为hos此季消费者和消费者都不会停止光荣的言论。关于评估在审判中科学成果的建议 心理学报,2004,16(4):362 - 367。https://doi.org/10.1026/0033-3042/a000630文章摘要,谷歌ScholarGärtner, A, Leising, D. & Schönbrodt, F. D.(2022)。负责任的研究评估II:心理学招聘和晋升的具体建议。[PsyArXiv预印本在线]。https://doi.org/10.31234/osf.io/5yexm文章首次引用ecrosref, Google scholartyl, M., Demos, A. P., Carsel, T. S., Hanson, b.e., Melton, Z. J., Mueller, A. B.等(2017)。社会与人格科学的现状:烂透了,还不错,越来越好,还是越来越糟?心理学报,2011(1),34 - 34。https://doi.org/10.1037/pspa0000084在文章中首次引用ecrosref,谷歌ScholarSchönbrodt, f.d., Gärtner, A., Frank, M., Gollwitzer, M., Ihle, M., Mischkowski, D.等人(2022)。负责任的研究评估I:在心理学的招聘和晋升中实施DORA。[PsyArXiv预印本在线]。https://doi.org/10.31234/osf.io/rgh5b首次引用于文章ecrossref, Google scholarfigurereferencesrelateddetails讨论论坛:Empfehlungen zur Bewertung wissenschaftlicher Leistungen bei Berufungsverfahren in der PsychologieVolume 74 issue 3Juli 2023 issn: 0033-3042eISSN: 2190-6238 InformationPsychologische Rundschau (2023), 74, pp. 187-190 https://doi.org/10.1026/0033-3042/a000641.©2023Hogrefe VerlagPDF下载 心理学报,2004,16(4):362 - 367。https://doi.org/10.1026/0033-3042/a000630文章摘要,谷歌ScholarGärtner, A, Leising, D. & Schönbrodt, F. D.(2022)。负责任的研究评估II:心理学招聘和晋升的具体建议。[PsyArXiv预印本在线]。https://doi.org/10.31234/osf.io/5yexm文章首次引用ecrosref, Google scholartyl, M., Demos, A. P., Carsel, T. S., Hanson, b.e., Melton, Z. J., Mueller, A. B.等(2017)。社会与人格科学的现状:烂透了,还不错,越来越好,还是越来越糟?心理学报,2011(1),34 - 34。https://doi.org/10.1037/pspa0000084在文章中首次引用ecrosref,谷歌ScholarSchönbrodt, f.d., Gärtner, A., Frank, M., Gollwitzer, M., Ihle, M., Mischkowski, D.等人(2022)。负责任的研究评估I:在心理学的招聘和晋升中实施DORA。[PsyArXiv预印本在线]。https://doi.org/10.31234/osf.io/rgh5b首次引用于文章ecrossref, Google scholarfigurereferencesrelateddetails讨论论坛:Empfehlungen zur Bewertung wissenschaftlicher Leistungen bei Berufungsverfahren in der PsychologieVolume 74 issue 3Juli 2023 issn: 0033-3042eISSN: 2190-6238 InformationPsychologische Rundschau (2023), 74, pp. 187-190 https://doi.org/10.1026/0033-3042/a000641.©2023Hogrefe VerlagPDF下载
本文章由计算机程序翻译,如有差异,请以英文原文为准。