Blog

GDD @ NIPS 2017

Henk Griffioen

Henk Griffioen

Aktualisiert Dezember 5, 2025
3 Minuten

Eine der Vergünstigungen von GDD ist unsere Weiterbildungszulage: Als Berater erhalten Sie ein großzügiges Budget und 5 Weiterbildungstage für Ihre persönliche Entwicklung. Es steht Ihnen frei, das Geld für alles auszugeben, von dem Sie glauben, dass es Ihnen nützt: externe oder interne Schulungen, Coaching, Konferenzen, MOOCs, usw. Dieses Jahr haben einige von uns das Geld genutzt, um an der NIPS-Konferenz in Long Beach, Kalifornien, teilzunehmen.

Warum haben wir uns für eine akademische Konferenz wie die NIPS entschieden? Die NIPS entwickelt sich immer mehr zur wichtigsten Konferenz für maschinelles Lernen und künstliche Intelligenz. Sie behandelt heiße Themen wie Deep Learning, die das Feld revolutioniert haben und dies wahrscheinlich auch in den kommenden Jahren tun werden. Wenn Sie sich über die neuesten Entwicklungen in Forschung und Industrie informieren möchten, ist die Teilnahme ein Muss. Auch nicht unwichtig: Die NIPS in Barcelona hat uns im letzten Jahr sehr gut gefallen und ist eine gute Ausrede, um einige Zeit im und um das sonnige Los Angeles zu verbringen.

Die diesjährige NIPS deckte ein breites Spektrum an Themen ab, von der Entwicklung von Algorithmen bis hin zu ethischen Diskussionen. Hier sind einige unserer Highlights.

Die meistdiskutierte Sitzung war wahrscheinlich Ali Rahimis Vortrag über das Verständnis von Deep Learning in der Branche, in dem er die Methodik mit Alchemie verglich. Die Konversation ist mit einer Antwort von Yann Lecun und dem Nachtrag von Rahimi & Brecht noch im Gange.

Die Auswirkungen des maschinellen Lernens auf unsere Gesellschaft nehmen immer mehr zu - und nicht alles davon ist von Vorteil. Kate Crawford sprach in ihrer Keynote über die Voreingenommenheit in unseren Daten und Algorithmen und Solon Barocas und Moritz Hardt untersuchten die Fairness. Es ist schön zu sehen, dass die Branche aktiv die Auswirkungen auf die Gesellschaft untersucht.

Im Zusammenhang mit Fairness wird die Interpretierbarkeit von Modellen immer wichtiger werden, da wir die Auswirkungen der Datenschutzgrundverordnung und des Rechts auf Erklärung sehen werden. Vielleicht sind Sie bereits mit LIME und ELI5 vertraut, um komplexe Modelle besser interpretierbar zu machen. Scott Lundberg stellte eine effizientere Alternative zu LIME vor, bei der Erwartungen und Shapley-Werte verwendet werden, und Ethen Elenberg sprach über den STREAK-Algorithmus zur Interpretation neuronaler Netze. Die Notwendigkeit der Interpretierbarkeit für maschinelles Lernen mag noch immer umstritten sein, aber sie ist ein wichtiges Werkzeug für Data Scientists: Stakeholder wollen wissen, warum ein Modell tut, was es tut.

Weitere Höhepunkte waren das Lernen aus unbeschrifteten Beispielen, probabilistische weiche Logik, Deep Learning auf Graphen für Empfehlungssysteme und bereichsübergreifende Bilderzeugung. In diesem Repo finden Sie weiteres Material.

In diesem Blogbeitrag haben wir nur einen kleinen Teil der Konferenz abgedeckt. Auf der NIPS-Facebook-Seite finden Sie alle Vorträge und im NIPS Proceeding die Vorträge. Nächstes Jahr hoffen wir, unserer Sammlung eine weitere Tasse hinzufügen zu können!

Verfasst von

Henk Griffioen

Contact

Let’s discuss how we can support your journey.