Qualitätsgespräch mit der Vizepräsidentin

Gestern fand zum zweiten Mal ein Qualitätsgespräch zwischen der Vizepräsidentin für Lehre (Prof. Haberer) und Studierendenvertretern statt. Ziel dieses Gesprächskreises ist ein kontinuierlicher Meinungsaustausch zwischen Uni-Leitung und Studierenden über Themen die die Qualität der Lehre betreffen.

Während beim ersten Gespräch diverse Themen besprochen wurden – u.a. das Problem der Raumknappheit an in diversen Bereichen – ging es gestern um Lehrevaluationen und wie diese angesichts des geänderten Hochschulgesetzes an der Universität geregelt werden sollen. Nach den neuen Regeln dürfen die Ergebnisse der Lehrevaluation nun endlich auch den Studierenden veröffentlicht werden. Dies haben nicht zuletzt auch wir (damals als Fachschaftsvertretung der Phil-Fak – aber auch etwa über die LAK Bayern) lange gefordert. Durchaus noch lesenswert unsere damalige Petition der ja nun weitgehend entsprochen wurde.

Die Themen in der Petition wurden letztlich auch im Gespräch wieder diskutiert. Klar ist dass demnächst eine Evaluationsordnung für die Universität beschlossen werden soll, die einen Rahmen für die Durchführung und Veröffentlichung der Lehrevaluationen setzt. Fragen die sich derzeit stellen sind unter anderem:

1. Soll man JEDE Veranstaltung in JEDEM Semester evaluieren. Oder lieber weniger häufig evaluieren und dafür „tiefer“ und mehr Zeit investieren aus den Ergebnisse auch Schlüsse zu ziehen und Maßnahmen zur Verbesserung zu ergreifen? Wie stark sollte man etwa die allgemeinen Studienbedingungen miteinbeziehen?

2. Wie steigert man die Rücklaufquote – und somit die Aussagekraft der Evaluationen? Papierbefragungen scheinen nicht mehr zeitgemäß, das TAN-System (bei dem jeder einen Zettel mit Code ausgeteilt bekommt und damit eine Veranstaltung evaluieren kann) hat oft miese Rücklaufquoten – was nicht zuletzt am Medienbruch (Papierfitzel => PC) liegen dürfte.

3. Kann jeder Studi nur die Ergebnisse der Veranstaltungen die er selbst evaluiert hat einsehen? Die seines Studiengangs? Die Ergebnisse früherer Semester? Alle Ergebnisse des Departments/der Fakultät? Hier ist wohl absehbar, dass die Studierendenvertretung hier gerne weitergehen würde als die Dozenten.

4. Wie macht man Druck, dass Dozenten aus ihren Ergebnissen etwas lernen – ohne Leute an den Pranger zu stellen? Ist es sinnvoll „schlechte“ Dozenten zu Fortbildungen zwangszuverpflichten? Wie hilfreich sind Lehrpreise?

5. Wann sollten die Evaluationen stattfinden? Während des Semesters? Am Ende? Sinnvoll scheint ein gemeinsamer Evaluationszeitpunkt während des Semesters – um noch Zeit zuhaben die Ergebnisse zu diskutieren oder gar Verbesserungen umzusetzen.

6. Wie organisiert man dass sich Dozenten im Diskurs mit Studierenden über ihre Ergebnisse austauschen können? Neben dem Idealfall der Diskussion in den Veranstaltungen (bietet sich besonders bei Seminaren an) sollten die Dozenten auch am Ort der Veröffentlichung der Ergebnisse (wird wohl StudOn sein) die Möglichkeit haben Stellung zu beziehen und mit den Studierenden zu diskutieren.

etc.

Anmerkungen, Vorschläge und Ideen zu diesen Fragen sind natürlich immer willkommen. Hier als Kommentar oder als E-Mail an den Sprecherrat oder eure Fachschaftsvertretung.

26 Antworten auf „Qualitätsgespräch mit der Vizepräsidentin“

  1. Frage 2: Rücklaufquote
    Hallo Herr Lochner,
    die Graduiertenschule hat sich für eine Onlineevaluation von ihren Veranstaltungen entschieden. Von den 2 Möglichkeiten (mit TAN oder TAN-frei) haben wir uns für letztere entschieden. In beiden Fällen ist es notwendig, dass die Teilnehmer ihre Mailadresse eintragen (diese werden anschließend gelöscht). Sie erhalten eine Mail mit einem Link (bei TAN-frei ist es der gleiche Link für alle, mit TAN ist es ein individueller Link). Der Bruch Mail-Homepage ist minimal, die Rücklaufquoten sind zwischen ok (25%) bis ziemlich gut (>50%) und die Antworten sind elaborierter als in der Papierversion (so unser Eindruck, zumindest). Und die Auswertung erfolgt automatisiert. Wenn die Fragebögen gleich aufgestellt sind, lassen sie sich auch prima miteinander vergleichen.
    Wenn Sie Infos / Erfahrungsbericht benötigen, können Sie gerne auf mich zukommen.
    Beste Grüße
    Monica Mayer

  2. Zu 2. Die TU München ist nach der elektronischen Evaluation mit TANs wegen sehr schlechter Rücklaufquoten wieder zu einem Papierfragebogen zurückgekehrt. Ergebnis ist nun eine ziemlich hohe Rücklaufquote (ca. 70 % [ohne Gewähr]) – klingt zwar sehr altbacken und arbeitsintensiv, das Ergbnis ist aber sehr vielversprechend

  3. Zu 1: ich finde auch, die Zuteilung von TANs oder aehnlichen Berechtigungen sollte nicht durch den Dozenten und nicht in der Vorlesung besuchen. Wenn ich nach einem halben Semester aufhoere eine Vorlesung zu besuchen hat das meist gute Gruende, die die Evaluation sonst nicht erfasst.

    Zu 2: Ein wichtiger Grund fuer die sinkenden (zumindest war das mein Eindruck) Ruecklaufquoten sind fehlende (fuer die Studenten) sichtbare Konsequenzen aus der Evaluation. Wenn das Ergebnis eh nicht sichtbar ist und im, so der Eindruck, allgemeinen Gemauschel untergeht und sich nichts aendert, warum sollte ich mir dann die Arbeit machen?

    Daher auch zu 3: Alle Evaluationen sollten fuer alle Studenten einsehbar sein, mindestens aus den letzten beiden Semestern um vor Besuch einer Veranstaltung pruefen zu koennen, ob das vermutlich Zeitverschwendung ist und man da nicht hin will oder ob sich die Veranstaltung evtl auch schon deswegen lohnt, weils der Dozent besonders gut macht. Und nachdem ja im Sinne der akademischen Freiheit jede Veranstaltung fuer Alle offensteht muss man natuerlich auch alle Bewertungen kennen koennen.

    Zu 4: Ich glaube eine Uni-weite Veroeffentlichung sollte nach 3 sollte da genug Druck erzeugen. Wenn das nicht zustande kommt waere ich aber dafuer, doch im Sinne der Waffengleichheit auch mal einen Dozenten aufgrund wiederholter mieser Evaluationen auf die Strasse zu setzen, ein Student wird ja auch aufgrund nichtbestandener Pruefungen irgendwann exmatrikuliert (jaja, ich weiss, da gibts noch das Dienstrecht…).

  4. erstmal danke für all die konstruktiven Kommentare!

    @Monica Mayer
    Der kleine Haken bei Ihrem System scheint mir zu sein, dass das besser für überschaubare Seminare und Übungen geeignet ist als für große Vorlesungen bei denen sich kaum feststellen lässt wer da eigentlich genau drinsitzt. Ich denke aber auch, dass eine Mail bei der man dann nur einen Link klicken muss und dann max. noch EIN Masterpasswort eingeben muss um seine Veranstaltungen zu evaluieren allemal sinnvoller ist als Papierfragebögen bzw. die Ausgabe von Papierfitzeln.

    @Felix
    Speziell bei 1 Zustimmung
    Was den Zeitpunkt der Lehrevaluation angeht so gibt es das Argument, dass die Motivation der Studis zu evaluieren höher ist wenn die Chance besteht dass sie selbst noch etwas davon haben. Das spricht für einen Zeitpunkt in der Mitte des Semesters. Außerdem ist da die Arbeitsbelastung der Studis etwas geringer (noch keine Prüfungen).
    Übergreifende Evaluationen (zu Studiengang, Hochschule, Rahmenbedingungen (wie Studentenwerk, ÖPNV, …)) sollten getrennt stattfinden – um die Rücklaufquote zu erhöhen wäre es aber evtl. durchaus sinnvoll die zeitlich zu koppeln mit den Lehrevaluationen.

    @arw
    zu 3
    ALLE Veranstaltungen der Uni für ALLE Studis gibt das Hochschulgesetz auch in der geänderten Fassung nicht her (außer in Form einer groben Zusammenfassung). Das Maximum wäre die Fakultätsinterne Veröffentlichung.

  5. Stimme arw zu. Und selbst wenn das Hochschulgesetz es momentan nicht her gibt, sollten alle Evaluationen öffentlich gemacht werden. (Das HSG wird ohnehin früher oder später durch das Informationsfreiheitsgesetz ausgehebelt). Das Gesetz verpflichtet nicht zur vollständigen Publikation. Aber verbieten tut es dies auch nicht.

    Was nutzt es denn bitteschön, wenn die Evaluationen wie gut „mein“ Studiengang in ER gerade ist, für mich als Studi erst sehbar ist, wenn ich hier studiere. Dann weiss ich es selbst schon. Wichtig ist doch auch die Möglichkeit des Vergleiches mit anderen Unis.
    Und solange die die hiesigen Verfahren oder aus Angst gebaut bürokratische Mauern das nicht hergeben, bleibt MeinProf.de das einzige was da vergleichbare Daten gibt. Und wenn das so ist, macht es keinen Sinn, auch nur einen Cent in lokale Entwicklungen oder Verfahren zu stecken.

  6. @Wolfgang Wiese
    Das Problem dass der Grundsatz des Datenschutz (veranstaltungsbezogene Evaluationen sind faktisch immer auch personenbezogen – außer vielleicht bei Ringvorlesungen) weiterhin gilt. Ausnahmen davon bedürfen gesetzlicher Erlaubnis (wie durch das neue HSG geschehen).
    => über das HSG hinausgehen wäre illegal
    => auch das Informationsfreiheitsgesetz wird darin kurz- und mittelfristig nix verändern

    Was aber natürlich möglich ist, ist aggregierte Daten (die dann nicht mehr personenbezogen sind) zu veröffentlichen.

  7. Vielleicht darf das die Uni nicht, aber diverse Urteile bezueglich Spickmich und meinprof haben oefter mal (in meiner juristisch ungebildeten Meinung) bestaetigt, dass es eben keine Verletzung des Persoenlichkeitsrechts oder Datenschutzes ist, Bewertungen oeffentlich zu machen, umso weniger, wenn diese unter kontrollierten, einigermassen objektiven Bedingungen zustande kommen. D.h. wenn die Uni nicht in der Lage ist soetwas zu veroeffentlichen sollte die Uni solche Evaluationen nicht durchfuehren, das ist Geld- und Zeitverschwendung. Einfach an Dritte auslagern, die das duerfen, dann hat das auch einen Nutzen.

  8. @arw
    Naja – es ist schon kein gan kleiner Qualitätsunterschied zwischen kontinuierlichen Evaluationen deren Konzept in Zusammenarbeit mit den Studierenden ausgearbeitet wurden und irgendwelchen „mein-Prof“-Seiten die dann Rankings erstellen und glauben so unterschiedliche Veranstaltungen wie Statistik-Grundlagenvorlesungen und Examenskolloqien miteinander vergleichen zu können.
    Nur qualitativ einwandfreie Evaluationen können aber als Grundlage dienen den Evaluationen ggf. auch Taten folgen zu lassen. Das fängt bei den äußerst fruchtbaren Eva-gestützten Feedbackrunden im Seminar an und hört bei Lehrpreisen bzw. Negativsanktionen (wie Zwangsverpflichtungen zu Fortbildungen) auf.

  9. Naja, das Problem ist aber aus meiner Sicht folgendes: Bei den Kandidaten mit eher negativer Bewertung passiert nichts, das sind dann auch diejenigen, die natuerlich keine Feedbackrunden anbieten und felsenfest der Meinung sind, dass Ihre Veranstaltung die Beste ist und das Studentenpack das nur nicht zu schaetzen weiss. Man erfaehrt als Student auch von keinen Konsequenzen und im naechsten Semester laeufts wieder exakt wie im aktuellen.

    Die Kandidaten mit eher positiver Bewertung sind im Allgemeinen dann sowieso diejenigen, die sich um die Qualitaet ihrer Veranstaltung aktiv kuemmern, da gibts auch Feedbackrunden und aehnliches. Nur machen die es ja eh schon richtig, bis auf Kleinigkeiten.

    Die Frage ist nun folgende: Wie bringt man Erstere dazu, die Qualitaet zu steigern und wie belohnt man Letztere? Und da denke ich, das einzige Instrument, von dem in jedem Fall ein Erfolg zu erwarten ist ist die vorbehaltlose Veroeffentlichung, auch nach ausserhalb der Uni. Denn nur dann ist auch fuer die Studenten, um die es ja (vorgeblich) geht nachvollziehbar, dass Probleme angegangen werden, dass eine Verbesserung wirklich passiert. Und nur so ist es auch fuer mich als Studenten moeglich zu entscheiden, eine Veranstaltung oder auch eine Universitaet eben nicht zu besuchen, wenn die angesprochene Verbesserung und das erforderliche Qualitaetsniveau nicht erreicht wird.

    Evaluation fuers Hinterzimmer und fuer den kleinen Kreis, selbst wenn sich daraus Verbesserungen ergeben, verfehlen das Ziel, denn solange diese Verbesserungen nicht bekannt werden, welches Interesse sollte ich dann als Student an der Teilnahme haben?

  10. Und zum Qualitaetsunterschied der Evaluation ergibt sich daraus natuerlich auch eine Konsequenz. Ohne genug Teilnehmer ist keine Evaluation aussagekraeftig, egal wie methodisch perfekt durchgefuehrt. Es ist also eminent wichtig, durch Veroeffentlichung zu zeigen, dass man es ernst meint und Konsequenzen zieht, nur dann werden weiterhin viele Leute bewerten (mein Eindruck ist ja, dass die Teilnehmerzahlen bereits nachlassen, aus genau dem Grund).

  11. @arw
    Das Problem ist: Du kannst die Evaluationen zweier Unis nicht miteinander vergleichen – nichtmal die zweier Fakultäten. Noch nichtmal die Evaluation zweier Dozenten beim selben Fach ist sonderlich sinnig (s.o.).
    Das worum es bei den ganzen Evaluationen geht, hast du treffend beschrieben:
    „Wie bringt man Erstere dazu, die Qualitaet zu steigern und wie belohnt man Letztere?“
    Druck durch Veröffentlichung ist das eine – aber da ist uni-intern (bzw. fakultätsintern) durchaus bereits hilfreich – niemand lässt sich gerne sagen dass die Kollegen das anscheinend besser machen. Ein Übermaß an solchen Druck (etwa Dozenten-Rankings in den NN) könnte eher zu Resignation, Frustration oder Trotzreaktionen führen.

    Gute Lehre zu belohnen ist übrigens relativ leicht (Lehrpreise, Ausstattung Lehrstuhl verbessern, öffentliche Anerkennung). Schlechte Dozenten dazu zu bringen besser zu werden ist ungleich schwieriger.
    Bringts was diese Dozenten zu Fortbildungen zu verpflichten? Oder sitzen die da nur Zeit ab?
    Bringts was deren Ausstattung zu verschlechtern (ihnen z.B. solange nur noch 1 statt 2 HiWis zu geben bis ihre Bewertung wieder besser ist)? Oder führt das eher zu Frustration und dazu dass noch weniger Zeit für die Studis bleibt?

    und ja: Dass die Evaluationen bisher als geheime Kommandosache betrachtet wurden und kein Studi auch nur das Ergebnis der Evaluation in der eigenen Veranstaltung gesehen hat, war maßgeblich dafür verantwortlich dass manch eine/r gar nicht mehr evaluiert.

  12. Es dreht sich doch dauernd um das vermeintliche Problem des Datenschutzes. Könnte man nicht mal bitte endlich akzeptieren, dass auch hohe Gerichtsinstanzen hier schon längst anders entschieden haben!
    Die Lehrbeauftragten sind in ihrer Funktion öffentliche Personen. Punktum.
    Wenn sie das nicht sein wollten -sie profitieren ja auch davon- dann hätten sie ihren Vertrag nicht unterschreiben brauchen.

  13. http://www.heise.de/newsticker/Spickmich-de-Paedagogin-zieht-vors-Bundesverfassungsgericht–/meldung/142576 (siehe auch die Links am Ende des Artikels)

    http://www.heise.de/newsticker/Professor-unterliegt-im-Rechtsstreit-gegen-MeinProf-de–/meldung/134584

    Spickmich wird demnaechst vor dem Bundesverfassungsgericht verhandelt, meinprof war glaube ich nach dem genannten Rechtsstreit eh erledigt und es hat sich niemand weiter klagen getraut, weil das Urteil doch recht klar ist. Bisher sind eigentlich alle Urteile konsistent zugunsten der Veroeffentlichung derartiger Bewertungen ausgegangen, auch obwohl eindeutig festgestellt wird, dass die Bewertungen subjektiv sind und methodisch gelegentlich zu wuenschen uebrig lassen.

  14. @arw, Wolfgang Wiese

    Da werden zwei Sachen miteinander verwechselt. Die Urteile zu Meinprof, Spickmich o.ä. beziehen sich darauf, dass jeder seine Meinung über jeden frei äußern darf, sofern er nicht beleidigend wird. Und dass dies auch im Internet, über extra dafür bereitgestellte Portale und mit standardisierten Bewertungen erfolgen kann.

    Etwas anderes ist aber, ob eine öffentliche Einrichtung personenbezogene Daten veröffentlichen darf. Was wäre denn los, wenn die Uni anfangen würde, die Klausurlisten nicht nur mit Matrikelnummern (was übrigens schon grenzwertig ist), sondern auch mit Namen ins Netz zu stellen?

  15. @Philipp : Ja?
    Aber es geht hier ja doch nicht um die geschützen Daten von Studierenden, sondern um eben die Öffentlichbarkeit von Evaluationen der Lehre.
    Und diese trifft im wesentlichen Bewertung der Lehre mit Angabe der ohnehin öffentlichen Daten von den Lehrbeauftragten. Von daher ist insbesondere das Urteil vom LG Regensburg sehr treffend und eindeutig. (Und doppelt wertvoll wird das Urteil dadurch, weil es aus Bayern ist. Da kann also niemand ankommen, das hier andere Landesgesetze gelten)

  16. Phillip: So einfach ist es nicht. Wer wann welche Vorlesung haelt ist sowieso oeffentlich, das steht im Vorlesungsverzeichnis, und die Vorlesung an sich ist ebenfalls oeffentlich. Und was wird nun zusaetzlich bei der Evaluation veroeffentlicht? Genau, Meinungen der Teilnehmer zur Vorlesung, nichts weiter.

    Moeglicherweise macht es einen Unterschied wer das veroeffentlicht. Deswegen meinte ich ja weiter oben, wenn die Uni das nicht veroeffentlichen darf sollte sie solche Evaluationen nicht durchfuehren, sondern das Externen ueberlassen, die auch veroeffentlichen duerfen.

  17. Hmm – diese Urteile sind soweit ich das sehe hier nicht wirklich einschlägig – es besteht nämlich ein Unterschied zwischen Meinungsäußerungen und der Veröffentlichung von Evaluationsergebnissen durch eine öffentliche Einrichtung.

    Bei meinProf.de geht es lediglich um Werturteile – die nicht schon deswegen zu einer objektiven Bewertung werden, nur weil da mehrere Personen ein Werturteil abgeben und dann daraus ein Schnitt berechnet wird.

    Bei Evaluationen an der Uni geht es dagegen darum, dass nach bester zur Verfügung stehender Methodik, Lehrpersonen bewertet werden und diese Ergebnisse es dann auch erlauben Konsequenzen folgen zu lassen. Derart „offizielle“ Ergebnisse werden längst bei Bewerbungen von Dozenten beigefügt und haben entsprechend eine gewisse Bedeutung bei Berufungsverfahren. Bei schlechten Bewertungen sind Gespräche zwischen Bewertetem und Studiendekan üblich. Lehrpreise sind daran gekoppelt oder (wie bei der MedFak) sogar erhebliche Geldmittel was die Lehrstuhlausstattung angeht (Stichwort: Leistungsorientierte Mittelvergabe – LOM).
    Diese Evaluationsergebnisse sind also in erheblich höherem Maße schützenswerte personenbezogene Daten als die Bewertungen auf spickmich oder meinProf.

    Warum es trotz dieses vermeintlichen „Handicaps“ sinnvoll ist dass die Uni so eine Evaluation in die Hand nimmt und man das Ganze nicht einfach meinProf überlässt, habe ich am 15.8. um 16:32 Uhr versucht darzulegen.

  18. @arw, Wolfgang Wiese

    Ihr habt das Problem, auf das ich hinauswollte, nicht verstanden. Ich darf jedem persönlich sagen, dass ich von einem Prof nichts (oder viel) halte. Das ist persönliche Meinungsäußerung. Und ich darf das im Netz genauso wie offline. Eine Meinungsäußerung drückt sich immer dadurch aus, dass sie subjektiv ist.

    Wenn die Uni aber Evaluationsergebnisse veröffentlicht, dann ist die Bewertung nicht mehr subjektiv (was die Bewertung durch eine Einzelperson ist) und damit auch keine Meinungsäußerung mehr (man könnte sich noch darüber streiten, was wäre, wenn die Uni die Rohdaten und nicht die aggregierten Daten der Evaluation veröffentlichen würde – dann würde sie möglicherweise nur subjektive Meinungsäußerungen anderer wiedergeben, was zulässig wäre). Wenn es sich um keine Meinungsäußerung handelt, sondern um eine Tatsachenbehauptung, dann gelten auch striktere Kriterien, wie die Daten zustande kommen müssen.

    Da gibt es übrigens auch Urteile zu, z.B. wie die Stiftung Warentest (die so was ähnliches macht) ihre Tests aufziehen muss, damit sie eben den Anforderungen an eine (objektive) Tatsachenbehauptung genügen.

    Ich wehre mich übrigens nicht grundsätzlich dagegen, Evaluationsergebnisse öffentlich zu machen. Allerdings müssen die dann (1) auf einem wissenschaftlich einigermaßen validen Verfahren basieren (d.h. insbesondere hohe Rücklaufquote, verständliche und eindeutige Fragen, klares Bewertungsschema) und (2) nicht personen-, sondern studiengangsbezogen sein (personen- bzw. lehrveranstaltungsbezogene Bewertungen können uni-intern öffentlich sein, um z.B. Entscheidungshilfen zu geben, bei wem ich Kurse belegen will).

    Das, was die Uni bisher Evaluation nennt (EvaSys) erfüllt aber keine Kriterien für eine wissenschaftlich valide Evaluation – und veröffentlichungsfähig ist es auch nicht.

  19. Ich sehe keinen Unterschied von dem was das EvaSys macht zu dem was meinprof macht. Es werden subjektive einzelne Meinungen zusammengefasst und ein bischen Statistik dazu gemacht. Das Ergebnis bleibt immer subjektiv, alleine schon weil es eine Befragung ist. Der Vergleich mit der Stiftung Warentest ist da vollkommen unangebracht, die machen naemlich wirklich Versuche und haben damit objektive messbare Kriterien. Und die Stiftung Warentest behauptet eben mit ihren Urteilen, dass Produkt X besser als Produkt Y ist, was in der Evaluation erstmal nicht passiert, es gibt kein „Praedikat sehr gut“ fuer eine Vorlesung sondern nur eine viel detailiertere Zusammenfassung von einzelnen Meinungen.

    Von der Evaluation zu erwarten, dass man da irgendwelche „wissenschaftlich validen“ Ergebnisse rausbekommen koennte ist imho vollkommen unrealistisch, und das wissen auch alle, die die Ergebnisse lesen. Fuer eine objektive Bewertung muesste man vor allem „messen“ was die Leute in der Vorlesung mit welchem Aufwand gelernt haben, das geht aber keinesfalls per Befragung.

  20. @Martin Lochner: ich bin mir nicht sicher ob ich Sie verstehe. Kann es sein, daß Sie das Ziel der Evaluation nicht im Vergleich des Kurses mit anderen Kursangeboten sehen, sondern hauptsächlich darin, daß der Dozent diesen seinen Kurs verbessert?

    Wenn dem so ist, dann dürfte hier die unterschiedliche Betrachtungsweise liegen. Ich, und wohl auch arw, sehen in der Möglichkeit des Vergleiches (insbesondere universitätsübergreifend!) die Möglichkeit der Studierenden mit den Füßen abzustimmen.
    Der Lehre wird dann indirekt dadurch verbessert, daß „schlechte“ Dozenten wenig Studierende haben und damit dem mittelfristig Lehrstuhl auch Resourcen verloren gehen (Budget, aber auch Leute die Studienarbeiten machen), während „gute“ Dozenten gewinnen.
    Die Folge ist dann, daß die Dozenten bei schlechten Ergebnissen einfach gezwungen sind, was zu ändern.

    Eine Evaluation die jedoch nur für eigene Verbesserung geeignet wäre, wäre natürlich theoretisch besser. Aber nur unter der Angabe, daß der Dozent Muße hätte, auf die Ergebnisse der Evaluation einzugehen. Sprich: Das wäre dann freiwillig.
    Das Ignorieren der Evaluation hätte dann aber keine Konsequenzen. Egal ob die qualitativ und wissenschaftlich valide ist.

    Es bleibt aber die Frage was ist besser für die Studierenden? Und damit sollte man aber doch nicht nur die aktuellen hiesigen betrachten, sondern auch die, welche möglicherweise einen Wechsel von/zu einer anderen Uni in Betracht ziehen. Die brauchen einen Vergleich. Theorie und Praxis des Evaluationsverfahrens, aber auch Validität der Vergleiche hin und her.
    (Unabhängig davon, daß nicht nur wegen den Gründen die arw nannte sowas utopisch wäre, sondern auch aufgrund der Stellensituation an der Uni.)

    Was mich noch wunderte: Oben schrieben Sie, daß die Bewertungsverfahren längst genutzt werden und Folgen haben.
    Haben Sie dazu Beispiele? Also wenn ich an die Sache mit dem sogenannten DiMi-Professor vor einiger Zeit zurückdenke, hab ich nicht den Eindruck, daß sowas wirklich passiert.

  21. @Wolfgang Wiese
    Richtig – ich glaube nicht dass Vergleiche zwischen Unis auf Grundlage von Lehr-Evaluationen sonderlich sinnvoll sind – entsprechend geht es mir eher um die Verbesserung jedes einzelnen Dozenten.

    Abstimmung mit den Füßen funktioniert übrigens zumindest innerhalb eines Faches eher schlecht als recht. Denn wenn die guten Profs überlaufen werden führt dass nur dazu, dass diese ihre Zeit an mehr Studis verteilen müssen und größere Seminare haben. Schlechtere Profs profitieren von weniger Korrekturaufwand. Hier gibt es also quasi einen Anreiz zu schlechter/mittelmäßiger Lehre.

    Zum letzten Absatz: Selbst jener DiMi-Prof konnte ja immerhin gezwungen werden ein 3-Tages-Prof zu werden…
    Und doch – nicht nur aus meiner Zeit im Senat kann ich Ihnen versichern, dass Evaluationsergebnisse bei Berufungen mit-berücksichtigt werden. Ein Prof der keine entsprechenden Ergebnisse beifügt macht sich da inzwischen zumindest verdächtig. Vergleichbar sind derlei Ergebnisse natürlich auch nicht – aber Evaluationsergebnisse schlechter als 3 sind ZUMINDEST für die studentischen Vertreter ein Ansatzpunkt skeptisch zu werden…

    Problem dabei: Damit kann man weder Druck auf C4/W3-Profs machen noch werden diese Evaluationen in dem Maße berücksichtigt in dem wir Studis das gerne hätten. Viele Publikationen in richtigen Zeitschriften sind leider immer noch vieeeel hilfreicher wenn man einen Lehrstuhl haben will als gute Lehre.

    Die Gespräche mit dem Studiendekan sind bisher halt leider auch eher nur lästig als wirklich in der Lage Druck zu erzeugen (und sind abhängig davon dass sich motivierte Studiendekane wirklich dahinterklemmen). Bei der Ausstattung der Lehrstühle ist zu bedenken, dass es nicht zwangsläufig im Sinne der Studierenden ist wenn einem überforderten Prof. mit schlechter Lehre auch noch der HiWi gekürzt wird der bisher zumindest eine annehmbare Literaturliste zusammengebastelt hat. Lehrpreise sind toll – aber motivieren allenfalls das leistungsstärkste Drittel der Lehrenden.

    => Es ist nicht so dass mit den Ergebnissen der Lehrevaluationen gar nix passiert (gerade an der MedFak hängt da schon recht viel dran) – aber zufriedenstellend war der status quo eben noch nicht.

  22. Ok, haben wir das geklärt. Im Prinzip ist das Ziel ja klar, nur die Sicht des richtigen Weges ist verschieden.
    In der Wissenschaft würde man nun beide verschiedene Verfahren in ihrem Erfolg miteinander vergleichen, unabhängig von der eigenen Meinung. Sprich: Wie machen es die anderen Unis, was ist da erfolgreich und was nicht.

    Eine Alternative wäre aber auch: Warum nicht einfach die Studierenden und das Personal über eine Umfrage fragen um zu sehen was größere Akzeptanz haben wird?
    (Deswegen fragen und nicht einfach per [in der Regel ohnehin nicht kommunizierten] HSL-Beschluss, weil es Akzeptanz nicht verordnet werden kann).

Kommentare sind geschlossen.