haku: @keyword information visualization / yhteensä: 12
viite: 3 / 12
Tekijä:Amid, Ehsan
Työn nimi:Application of ⍺-Divergence for Stochastic Neighbor Embedding in Data Visualization
Julkaisutyyppi:Diplomityö
Julkaisuvuosi:2014
Sivut:66 + 2      Kieli:   eng
Koulu/Laitos/Osasto:Perustieteiden korkeakoulu
Oppiaine:Machine Learning and Data Mining   (SCI3015)
Valvoja:Oja, Erkki
Ohjaaja:Dikmen, Onur
Elektroninen julkaisu: http://urn.fi/URN:NBN:fi:aalto-201408292560
OEVS:
Sähköinen arkistokappale on luettavissa Aalto Thesis Databasen kautta.
Ohje

Digitaalisten opinnäytteiden lukeminen Aalto-yliopiston Harald Herlin -oppimiskeskuksen suljetussa verkossa

Oppimiskeskuksen suljetussa verkossa voi lukea sellaisia digitaalisia ja digitoituja opinnäytteitä, joille ei ole saatu julkaisulupaa avoimessa verkossa.

Oppimiskeskuksen yhteystiedot ja aukioloajat: https://learningcentre.aalto.fi/fi/harald-herlin-oppimiskeskus/

Opinnäytteitä voi lukea Oppimiskeskuksen asiakaskoneilla, joita löytyy kaikista kerroksista.

Kirjautuminen asiakaskoneille

  • Aalto-yliopistolaiset kirjautuvat asiakaskoneille Aalto-tunnuksella ja salasanalla.
  • Muut asiakkaat kirjautuvat asiakaskoneille yhteistunnuksilla.

Opinnäytteen avaaminen

  • Asiakaskoneiden työpöydältä löytyy kuvake:

    Aalto Thesis Database

  • Kuvaketta klikkaamalla pääset hakemaan ja avaamaan etsimäsi opinnäytteen Aaltodoc-tietokannasta. Opinnäytetiedosto löytyy klikkaamalla viitetietojen OEV- tai OEVS-kentän linkkiä.

Opinnäytteen lukeminen

  • Opinnäytettä voi lukea asiakaskoneen ruudulta tai sen voi tulostaa paperille.
  • Opinnäytetiedostoa ei voi tallentaa muistitikulle tai lähettää sähköpostilla.
  • Opinnäytetiedoston sisältöä ei voi kopioida.
  • Opinnäytetiedostoa ei voi muokata.

Opinnäytteen tulostus

  • Opinnäytteen voi tulostaa itselleen henkilökohtaiseen opiskelu- ja tutkimuskäyttöön.
  • Aalto-yliopiston opiskelijat ja henkilökunta voivat tulostaa mustavalkotulosteita Oppimiskeskuksen SecurePrint-laitteille, kun tietokoneelle kirjaudutaan omilla Aalto-tunnuksilla. Väritulostus on mahdollista asiakaspalvelupisteen tulostimelle u90203-psc3. Väritulostaminen on maksullista Aalto-yliopiston opiskelijoille ja henkilökunnalle.
  • Ulkopuoliset asiakkaat voivat tulostaa mustavalko- ja väritulosteita Oppimiskeskuksen asiakaspalvelupisteen tulostimelle u90203-psc3. Tulostaminen on maksullista.
Sijainti:P1 Ark Aalto  1739   | Arkisto
Avainsanat:dimensionality reduction
information visualization
stochastic neighbor embedding
alpha-divergence
exponential divergence with augmentation
Tiivistelmä (eng):Dimensionality reduction and information visualization are fundamental steps in data processing, information extraction and reasoning.
In real-world applications, the number of measurements or variables per a single observation is so large that handling the raw data in a specific problem such as regression or classification becomes infeasible or even impractical.
Moreover, in many applications, a faithful representation of the data for a first step analysis and hypothesis development becomes crucial.
Recently, the SNE method has become tremendously popular for data visualization and feature extraction.
The more recent algorithms such as t-SNE and HSSNE extend the basic SNE algorithm by considering general heavy-tailed distributions in the low-dimensional space, while the others, such as NeRV, consider different parameterized cost functions to achieve the desired embedding by tuning the parameter.
In this thesis, we provide another extension to the SNE method by investigating the properties of alpha-divergence for neighbor embedding, focusing our attention on a particular range of alpha values.
We show that alpha-divergence, with a proper selection of the alpha parameter effectively eliminates the crowding problem associated with the early methods.
However, we also provide the extensions of our method to distributions having heavier tail than Gaussian.
Contrary to some earlier methods like HSSNE and NeRV, no hand-tuning is needed, but we can rigorously estimate the optimal value of alpha for given input data.
For this, we provide a statistical framework using a novel distribution called Exponential Divergence with Augmentation.
This is an approximate generalization of Tweedie distribution and enables alpha-optimization after a nonlinear transformation.
We evaluate the performance of our proposed method by considering two sets of experiments: first, we provide a number of visualizations using our method and its extensions and compare the results with the earlier methods.
Second, we conduct a set of experiments to confirm the effectiveness of our alpha-optimization method for finding the optimal alpha for the data distribution, and its consistency with standard quality measures of dimensionality reduction.
ED:2014-08-31
INSSI tietueen numero: 49687
+ lisää koriin
INSSI