top 64 informatica interview questions with answers
Ofte stilte spørsmål og svar om Informatica-intervju:
Denne artikkelen dekker de beste spørsmålene om Informatica MDM, PowerCenter, Data Quality, Cloud, ETL, Admin, Testing og Developer.
I dagens scenario har INFORMATICA oppnådd merket for et mest krevende produkt over hele kloden. Produktene ble nylig introdusert, men de ble populære innen kort tid.
Gjennom årene har INFORMATICA opptrådt som en leder innen teknologifeltet, Data Integration. Basert på ETL (Extract, Transfer, Load) arkitektur, har dette dataintegrasjonsverktøyet flere produkter som fokuserer på å tilby tjenester til offentlige organisasjoner, finans- og forsikringsselskaper, helsetjenester og flere andre virksomheter.
Vel, dette var bare bakgrunnen for INFORMATICA. Men i dag har datalagerfeltet enorm vekst, og det er derfor mange jobbmuligheter tilgjengelig i bransjen.
Beste spørsmål og svar om Informatica-intervju
Nedenfor er en liste over de vanligste spørsmålene og svarene på intervjuet. Den inneholder rundt 64 spørsmål, som igjen vil gjøre det mulig for deg å pusse din kunnskap om Informatica-konsepter på en enklere måte.
Q # 1) Hva er INFORMATICA? Hvorfor trenger vi det?
Svar: INFORMATICA er et programvareutviklingsfirma som tilbyr noen dataintegrasjonsløsninger for ETL, datavirtualisering, hoveddatahåndtering, datakvalitet, datareplikater, ultrameldinger osv.
Noen av de populære INFORMATICA-produktene er:
- IT PowerCenter
- INFORMATICA PowerConnect
- REGNSKAP Power Mart
- INFORMATICA Power Exchange
- INFORMATICA Effektanalyse
- INFORMATICA Strømkvalitet
Vi trenger INFORMATICA mens vi arbeider med datasystemer som inneholder data for å utføre visse operasjoner sammen med et sett med regler. Det letter operasjonslinjerengjøring og modifisering av data fra strukturerte og ustrukturerte datasystemer.
Q # 2) Hva er formatet for INFORMATICA-objekter i et depot? Hva er databasene den kan koble til Windows?
Svar: INFORMATICA-objekter kan skrives i XML-format.
Følgende er listen over databaser som den kan koble til:
- SQL Server
- Oracle
- MS Access
- MS Excel
- DB2
- Sybase
- Teradata
Spørsmål 3) Hva er INFORMATICA PowerCenter?
Svar: Det er et ETL / Data Integration-verktøy som brukes til å koble til og hente data fra forskjellige kilder og databehandling. PowerCenter behandler et stort volum av data og støtter datainnhenting fra ERP-kilder som SAP, PeopleSoft, etc.
Du kan koble PowerCenter til databasestyringssystemer som SQL og Oracle for å integrere data i det tredje systemet.
Q # 4) Hvilke forskjellige utgaver av INFORMATICA PowerCenter er tilgjengelige?
Svar: Ulike utgaver av INFORMATICA PowerCenter er:
- Standardutgave
- Avansert utgave
- Premium-utgave
Den nåværende versjonen av PowerCenter som er tilgjengelig, er v10 med høy ytelse.
Sp # 5) Hvordan kan du skille mellom PowerCenter og Power Map?
Svar: Nedenfor er forskjellene mellom PowerCenter og Power Map.
IT PowerCenter | Datavitenskap PowerMart | ||
---|---|---|---|
5858 | 4566 | 3550 | 23/01/2016 |
1. | Behandler høyt datamengde | Behandler lite datamengde | |
2. | Støtter globale og lokale arkiver | Støtter bare lokale arkiver | |
3. | Støtter datainnhenting fra ERP Kilder som SAP, PeopleSoft etc. | Støtter ikke datainnhenting fra ERP-kilder | |
Fire. | Konverterer lokale arkiver til globale | Ikke konverter lokale arkiver til globale |
Sp # 6) Hva er de forskjellige komponentene i PowerCenter?
Svar: Nedenfor er de 7 viktige komponentene i PowerCenter:
- PowerCenter-tjenesten
- PowerCenter-klienter
- PowerCenter Repository
- PowerCenter-domenet
- Repository Service
- Integrasjonstjeneste
- PowerCenter administrasjonskonsoll
- Web Service Hub
Sp # 7) Hva er de forskjellige klientene til PowerCenter?
Svar: Her er listen over PowerCenter-klienter:
- PowerCenter-designer
- PowerCenter arbeidsflytmonitor
- PowerCenter arbeidsflytbehandling
- PowerCenter repository manager
Q # 8) Hva er INFORMATICA PowerCenter Repository?
Svar: PowerCenter Repository er en relasjonsdatabase eller en systemdatabase som inneholder metadata som,
- Kildedefinisjon
- Måldefinisjon
- Sessions- og øktlogger
- Arbeidsflyt
- ODBC-tilkobling
- Kartlegging
Det er to typer arkiver:
- Globale arkiver
- Lokale arkiver
PowerCenter Repository kreves for å utføre ekstraksjon, transformasjon og lasting (ETL) basert på metadata.
Sp # 9) Hvordan utdype sporingsnivå?
Svar: Sporingsnivå kan defineres som mengden informasjon som serveren skriver i loggfilen. Sporingsnivå opprettes og konfigureres enten på transformasjonsnivå eller på øktnivå ellers på begge nivåene.
Nedenfor er de fire typer sporingsnivåer:
- Ingen
- Terse
- Utvidet initialisering
- Utførlige data
Sp # 10) Hvordan utdype PowerCenter-integrasjonstjeneste?
Svar: Integrasjonstjenester styrer arbeidsflyten og utførelsen av PowerCenter-prosesser.
Det er tre komponenter i INFORMATICA-integreringstjenester som vist i figuren nedenfor.
Integrasjonstjenesteprosess: Det kalles som pmserver, integrasjonstjeneste kan starte mer enn én prosess for å overvåke arbeidsflyten.
Lastbalansering: Load Balancing refererer til å fordele hele arbeidsmengden over flere noder i rutenettet. En lastbalanser utfører forskjellige oppgaver som inkluderer kommandoer, økter, etc.
Data Transformation Manager (DTM): Data Transformation Manager tillater å utføre følgende datatransformasjoner:
- Aktiv: For å endre antall rader i utdataene.
- Passiv: Kan ikke endre antall rader i utdataene.
- Tilkoblet: Lenke til den andre transformasjonen.
- Ikke tilkoblet: Ingen lenke til andre transformasjoner.
Q # 11) Hva er PowerCenter on Grid?
Svar: INFORMATICA har funksjonen Grid computing som kan brukes for den største dataskalerbarheten for å oppnå ytelsen. Rutenettfunksjonen brukes til lastbalansering og parallell prosessering.
PowerCenter-domener inneholder et sett med flere noder for å konfigurere arbeidsmengden og deretter kjøre den på rutenettet.
TIL domene er et grunnlag for effektiv serviceadministrasjon servert av PowerCenter.
Node er en uavhengig fysisk maskin som er logisk representert for å kjøre PowerCenter-miljøet.
Spørsmål nr. 12) Hva er Enterprise Data Warehousing?
Svar: Når en stor mengde data er samlet på et enkelt tilgangspunkt, kalles det Enterprise Data Warehousing. Disse dataene kan gjenbrukes og analyseres med jevne mellomrom eller i henhold til behovet for tidskravet.
Betraktet som den sentrale databasen eller si et enkelt tilgangspunkt, gir datalagring av bedrifter et komplett globalt syn og hjelper dermed til beslutningsstøtte.
Det kan forstås mer av følgende punkter som definerer funksjonene:
- All viktig forretningsinformasjon lagret i denne enhetlige databasen er tilgjengelig fra hvor som helst i organisasjonen.
- Selv om tiden som kreves er mer, gir periodisk analyse av denne enkeltkilden alltid bedre resultater.
- Datasikkerhet og integritet kompromitteres aldri mens de blir tilgjengelige i hele organisasjonen.
Sp # 13) Hva er fordelen med øktpartisjonering?
Svar: Mens integrasjonstjenesten kjører i miljøet, er arbeidsflyten partisjonert for bedre ytelse. Disse partisjonene brukes deretter til å utføre ekstraksjon, transformasjon og lasting.
Sp # 14) Hvordan kan vi lage en indeks etter fullføring av lasteprosessen?
Svar: Kommandooppgaver brukes til å lage en indeks. Kommandooppgaveskript kan brukes i en økt i arbeidsflyten for å lage en indeks.
Sp # 15) Hva er økter?
Svar: Session er et sett med instruksjoner som brukes når du flytter data fra kilden til destinasjonen. Vi kan partisjonere økten for å implementere flere sekvenser av økter for å forbedre serverytelsen.
Etter å ha opprettet en økt kan vi bruke serveradministratoren eller kommandolinjeprogrammet pmcmd for å stoppe eller starte økten.
Sp # 16) Hvordan kan vi bruke batcher?
Svar: Batcher er samlingen av økter som brukes til å migrere dataene fra kilden for å målrette mot en server. Batcher kan ha det største antallet økter i seg, men de forårsaker mer nettverkstrafikk, mens færre økter i en batch kan flyttes raskt.
Sp # 17) Hva er kartlegging?
Svar: Kartlegging er en samling kilder og mål som er knyttet til hverandre gjennom visse sett med transformasjoner som ekspresjonstransformasjon, sortertransformasjon, aggregattransformasjon, rutetransformasjon, etc.
Sp # 18) Hva er transformasjon?
Svar: Transformasjon kan defineres som et sett med regler og instruksjoner som skal brukes for å definere dataflyt og datalast på destinasjonen.
Spørsmål nr. 19) Hva er uttrykkstransformasjon?
Svar: Det er en kartleggingstransformasjon som brukes til å transformere data i en post om gangen. Uttrykkstransformasjon kan være passiv eller koblet sammen. Uttrykket brukes til datamanipulering og generering av utdata ved bruk av betingede utsagn.
Spørsmål nr. 20) Hva er oppdateringstrategitransformasjon?
Svar: Oppdateringsstrategi i Informatica brukes til å kontrollere data som passerer gjennom den og merke dem som INSERT, UPDATE, SLETT og REJECT. Vi kan angi en betinget logikk i oppdateringstrategitransformasjonen for å merke den.
Spørsmål nr. 21) Hva er sorteringstransformasjon?
hvordan legge maven til formørkelse
Svar: Sortertransformasjon brukes til å sortere store datamengder gjennom flere porter. Det er mye sannsynlig at det fungerer som ORDER BY-klausulen i SQL. Sortertransformasjon kan være aktiv, passiv eller koblet.
Aktiv transformasjon går gjennom kartlegging og endrer antall rader, mens passiv transformasjon går gjennom kartlegging, men endrer ikke antall rader.
De fleste av INFORMATICA-transformasjonene er koblet til datastien.
Spørsmål nr. 22) Hva er rutertransformasjon?
Svar: Rutertransformasjon brukes til å filtrere kildedataene. Du kan bruke rutetransformasjon til å dele ut en enkelt datakilde.
Det er omtrent som Filtertransformasjon, men den eneste forskjellen er at filtertransformasjon bare bruker en transformasjonsbetingelse og returnerer radene som ikke oppfyller betingelsen, mens rutetransformasjon bruker flere transformasjonsbetingelser og returnerer radene som samsvarer med en enkelt betingelse.
Spørsmål nr. 23) Hva er rangtransformasjon?
Svar: Rangtransformasjon er aktiv så vel som tilkoblet. Den brukes til å sortere og rangere et sett med poster enten øverst eller nederst. Den brukes også til å velge data med den største eller minste numeriske verdien basert på en bestemt port.
Spørsmål nr. 24) Hva er rangindeks i rangtransformasjon?
Svar: Rangindeks tildeles av oppgavedesigneren til hver post. Rangeringsindeksporten brukes til å lagre rangeringsposisjon for hver rad. Rangtransformasjon identifiserer hver rad fra topp til bunn og tildeler deretter rangindeks.
Spørsmål nr. 25) Hva er statuskode i INFORMATICA?
Svar: Koden gir en feilhåndteringsmekanisme under hver økt. Statuskode utstedes av den lagrede prosedyren for å gjenkjenne om den er begått med suksess eller ikke, og gir informasjon til INFORMATICA-serveren for å avgjøre om økten må stoppes eller fortsettes.
Spørsmål nr. 26) Hva er søppeldimensjoner?
Svar: Søppeldimensjon er en struktur som består av en gruppe med noen søppelattributter som tilfeldige koder eller flagg. Det danner et rammeverk for å lagre relaterte koder med hensyn til en bestemt dimensjon på et enkelt sted i stedet for å lage flere tabeller for det samme.
Spørsmål nr. 27) Hva er Mapplet i Informatica?
Svar: Mapplet er et gjenbrukbart objekt som inneholder et visst sett med regler for transformasjons- og transformasjonslogikk som kan brukes i flere kartlegginger. Mapplet opprettes i Mapplet Designer i designerverktøyet.
Q # 28) Hva er dekode i Informatica?
Svar: For å forstå Decode, la oss betrakte det som lik CASE-setningen i SQL. Det er i utgangspunktet funksjonen som brukes av en uttrykkstransformasjon for å søke etter en bestemt verdi i en post.
Det kan være ubegrensede søk i Decode-funksjonen der en port er spesifisert for å returnere resultatverdier. Denne funksjonen brukes vanligvis i tilfeller der det er nødvendig å erstatte nestede IF-setninger eller å erstatte oppslagsverdier ved å søke i små tabeller med konstante verdier.
Dekode er en funksjon som brukes i uttrykkstransformasjon. Den brukes akkurat som CASE-setningen i SQL for å søke i en bestemt post.
Nedenfor er et enkelt eksempel på en CASE i SQL:
Syntaks:
SELECT EMPLOYEE_ID, CASE WHEN EMPLOYEE_AGE <= 20 THEN 'Young' WHEN EMPLOYEE_AGE> 30 AND AGE <= 40 THEN 'Knowledgeable' WHEN EMPLOYEE_AGE> 40 AND AGE = 60 THEN ‘Wise’ ELSE ‘Very Wise’ END AS EMPLOYEE_WISDOM FROM EMPLOYEE
Q # 29) Hva er Joiner Transformation i INFORMATICA?
Svar: Ved hjelp av Joiner-transformasjon kan du bruke Joins i INFORMATICA.
Den er basert på to kilder, nemlig:
- Hovedkilde
- Detaljkilde
Følgende sammenføyninger kan opprettes ved hjelp av Joiner-transformasjon som i SQL.
- Normal Bli med
- Full ytre sammenføyning
- Master Outer Join (Right Outer Join)
- Detalj Ytre skjøte (Venstre ytre skjøte)
Q # 30) Hva er Aggregator Transformation i INFORMATICA?
Svar: Aggregatortransformasjon kan være aktiv eller koblet til. Det fungerer som GROUP BY-setningen i SQL. Det er nyttig å utføre samlede beregninger på grupper i INFORMATICA PowerCenter. Den utfører en samlet beregning av data ved hjelp av aggregattypefunksjon, nemlig. SUM, AVG, MAX og MIN.
Q # 31) Hva er transformering av sekvensgeneratorer i INFORMATICA?
Svar: Sekvensgeneratortransformasjon kan være passiv eller koblet sammen. Den grunnleggende bruken er å generere heltallverdi med NEXTVAL og CURRVAL.
Q # 32) Hva er Union Transformation i INFORMATICA?
Svar: Union transformasjon brukes til å kombinere data fra forskjellige kilder og ramme dem med samme port og datatype. Det er omtrent som en klausul i SQL.
Spørsmål nr. 33) Hva er transformasjon av kildekvalifisering i INFORMATICA?
Svar: Kildekvalifiseringstransformasjon er nyttig i kartlegging, når vi legger til relasjonsflate filer blir den automatisk opprettet. Det er en aktiv og koblet transformasjon som representerer de radene som blir lest av integrasjonstjenesten.
Q # 34) Hva er INFORMATICA Worklet?
Svar: Worklet fungerer som en Mapplet med funksjonen for gjenbrukbarhet, den eneste forskjellen er at vi kan bruke Worklet på et hvilket som helst antall arbeidsflyter i INFORMATICA, i motsetning til Mapplet. Worklet lagrer logikken og oppgavene på ett sted for gjenbruk.
Worklet ligner mye på Mapplet og er definert som gruppen av oppgaver som kan være gjenbrukbare eller ikke-gjenbrukbare på arbeidsflytenivå. Det kan legges til så mange arbeidsflyter som nødvendig. Med funksjonen for gjenbrukbarhet spares det mye tid ettersom gjenbrukbar logikk kan utvikles en gang og kan plasseres der den kan brukes på nytt.
I INFORMATICA PowerCenter-miljøet blir Mapplets ansett som den mest fordelaktige funksjonen. De er opprettet i Mapplet-designere og er en del av Designer-verktøyet.
Den inneholder i utgangspunktet et sett med transformasjoner som er designet for å bli gjenbrukt i flere kartlegginger.
Mapplets sies å være gjenbrukbare objekter som forenkler kartleggingen ved å:
- Inkludert flere transformasjoner og kildedefinisjoner.
- Ikke nødvendig for å koble til alle inngangs- og utgangsportene.
- Godta data fra kilder og send til flere transformasjoner
Når det er nødvendig å bruke kartleggingslogikken på nytt, bør logikken plasseres i Mapplet.
Q # 35) Hva er SUBSTR i INFORMATICA?
Svar: SUBSTR er en funksjon som trekker ut eller fjerner et sett med tegn fra et større tegnsett.
Syntaks: SUBSTR (streng, start [, lengde])
Hvor,
streng definerer tegnet som vi vil søke.
start er et heltall som brukes til å sette posisjonen der tellingen skal komme i gang.
Lengde er en valgfri parameter som brukes til å telle lengden på en streng som skal returneres fra startposisjonen.
For eksempel, SUBSTR (Contact, 5, 8), der vi begynner med 5. tegn i kontakten og returnerer til de neste 8 tegnene.
Q # 36) Hva er kodesidekompatibilitet?
Svar: Når data overføres fra kildekodesiden til målkodesiden, må alle kjennetegnene til kildesiden være til stede på målsiden for å forhindre tap av data. Denne funksjonen kalles kodesidekompatibilitet.
Kodesidekompatibilitet kommer inn i bildet når INFORMATICA-serveren kjører i Unicode-databevegelsesmodus. I dette tilfellet sies det at de to kodesidene er identiske når de kodede tegnene deres er praktisk talt identiske og dermed ikke fører til tap av data.
For fullstendig nøyaktighet sies det at kildekodesiden er delmengden av målkodesiden.
Q # 37) Hvordan kan du skille mellom Connected LookUp og Unconnected LookUp?
Svar: Connected Lookup er en del av datastrømmen som er koblet til en annen transformasjon, den tar datainndata direkte fra en annen transformasjon som utfører en oppslag. Den bruker både statisk og dynamisk hurtigbuffer.
Unconnected Lookup tar ikke datainndataene fra en annen transformasjon, men den kan brukes som en funksjon i enhver transformasjon ved hjelp av LKP (LookUp) -uttrykk. Den bruker den eneste statiske hurtigbufferen.
Q # 38) Hva er inkrementell aggregering?
Svar: Inkrementell aggregering genereres så snart en økt er opprettet. Den brukes til å beregne endringer i kildedataene som ikke endrer måldata med betydelige endringer.
CUSTOMER_NO | BILL_NO | BELØP | DATO |
---|---|---|---|
1001 | 4001 | 1000 | 01/11/2016 |
2001 | 4002 | 2550 | 01/11/2016 |
3001 | 5012 | 4520 | 01/11/2016 |
1001 | 6024 | 2000 | 23/01/2016 |
1001 | 6538 | 5240 | 23/01/2016 |
2001 | 7485 | 5847 | 23/01/2016 |
1515 | 4572 | 6000 | 23/01/2016 |
Ved første last er utgangen:
CUSTOMER_NO | BILL_NO | LOAD_KEY | BELØP |
---|---|---|---|
1001 | 4001 | 20011 | 1000 |
2001 | 4002 | 20011 | 2550 |
3001 | 5012 | 20011 | 4520 |
Nå, ved den andre belastningen, vil den samle dataene med neste øktdato.
CUSTOMER_NO | BILL_NO | LOAD_KEY | BELØP | Merknader / betjening |
---|---|---|---|---|
1001 | 6538 | 20011 | 8240 | Cache-filen oppdateres etter aggregering |
2001 | 7485 | 20011 | 8397 | Cache-filen oppdateres etter aggregering |
3001 | 5012 | 20011 | 4520 | Ingen endring |
5858 | 4566 | 20011 | 3550 | Ingen endring |
1515 | 4572 | 20011 | 6000 | Ingen endring |
Q # 39) Hva er en surrogatnøkkel?
Svar: En surrogatnøkkel er en sekvensielt generert heltallverdi som brukes som en annen erstatning eller erstatning for primærnøkkelen som kreves som en unik identifikasjon av hver rad i en tabell.
Primærnøkkelen kan endres ofte etter behov som gjør oppdateringsprosessen vanskeligere for et fremtidig krav. Surrogatnøkkel er den eneste løsningen på dette problemet.
Spørsmål nr. 40) Hva er øktoppgave og kommandooppgave?
Svar: Sessionsoppgave er et sett med instruksjoner som skal brukes mens du overfører data fra kilde til mål ved hjelp av øktkommando. Sessionskommando kan være enten kommando før økt eller etter økt.
Kommandooppgave er en spesifikk oppgave som lar en eller flere skallkommandoer av UNIX kjøre i Windows under arbeidsflyten
Q # 41) Hva er den frittstående kommandooppgaven?
Svar: Den frittstående kommandooppgaven kan brukes til å kjøre Shell-kommandoen hvor som helst og når som helst i arbeidsflyten.
Q # 42) Hva er arbeidsflyt? Hva er komponentene i Workflow Manager?
Svar: Arbeidsflyt er veien for en måte som oppgaven skal implementeres på. Det er en samling instruksjoner som informerer serveren om hvordan oppgaven skal implementeres.
Nedenfor er de tre hovedkomponentene i Workflow Manager:
- Oppgavedesigner
- Oppgaveutvikler
- Arbeidsflytdesigner
Spørsmål nr. 43) Hva er hendelsen, og hva er oppgavene knyttet til den?
Svar: Hendelsen kan være hvilken som helst handling eller funksjon som oppstår i arbeidsflyten.
Det er to oppgaver knyttet til det, som inkluderer:
- Ventetiden for hendelsen: Denne oppgaven venter til en hendelse inntreffer, når hendelsen er utløst, blir denne oppgaven fullført og tildeler neste oppgave.
- Hendelser hever oppgaven: Event Raise-oppgave utløser den spesifikke hendelsen i arbeidsflyten.
Sp # 44) Hva er en forhåndsdefinert hendelse og brukerdefinert hendelse?
Svar: Forhåndsdefinerte hendelser er systemdefinerte hendelser som venter til ankomsten av en bestemt fil til et bestemt sted. Det kalles også som File-Watcher-hendelse.
Brukerdefinerte hendelser opprettes av brukeren for å heve når som helst i arbeidsflyten når de er opprettet.
Spørsmål nr. 45) Hva er måldesigneren og målbelastningsordren?
Svar: Target Designer brukes til å definere Target of data.
Når det er flere kilder eller en enkelt kilde med flere partisjoner knyttet til forskjellige mål gjennom INFORMATICA-serveren, bruker serveren Target Load Order for å definere rekkefølgen dataene skal lastes inn på et mål.
Q # 46) Hva er iscenesettelsesområdet?
Svar: Staging-området er en database der midlertidige tabeller som er koblet til arbeidsområdet er lagret eller faktatabeller for å gi innganger for databehandling.
Q # 47) Hva er forskjellen mellom STOP og ABORT?
Svar: Forskjellene er som følger:
- STOPPE kommandoen kjører på øktoppgave, når den er hevet, stopper integrasjonstjenesten bare å lese dataene i datakilden, men fortsetter behandlingen og skriver den til målet.
- ABORT kommandoen brukes til å fullstendig stoppe integrasjonstjenesten fra å lese, behandle og skrive data til målet. Den har sin egen tidsavbruddsperiode på 60 sekunder for å fullføre behandlingen og skrivingen av data gjennom integrasjonstjenesten hvis ikke, så dreper den ganske enkelt økten.
Q # 48) Hva er de forskjellige LookUp-cachene?
Svar: Oppslag kan enten være hurtigbufret eller ubufret. I utgangspunktet er den delt inn i fem deler.
De er:
- Statisk hurtigbuffer
- Dynamisk hurtigbuffer
- Gjenopprett
- Vedvarende hurtigbuffer
- Delt hurtigbuffer
Statisk hurtigbuffer forblir som den er uten endring mens en økt kjører.
Dynamic Cache oppdateres ofte mens en økt kjører.
Sp # 49) Hvordan oppdaterer jeg kildedefinisjonen?
Svar: Det er to måter å oppdatere kildedefinisjonen på.
De er:
- Du kan redigere den eksisterende kildedefinisjonen.
- Du kan importere en ny kilde fra databasen.
Spørsmål nr. 50) Hvordan implementere sikkerhetstiltak ved hjelp av en depotadministrator?
Svar: Det er tre måter å iverksette sikkerhetstiltak på.
De er:
- Mappetillatelse innen eiere, grupper og brukere.
- Låsing (lese, skrive, hente, lagre og utføre).
- Repository Privileges nemlig.
- Bla gjennom depotet.
- Bruk Workflow Manager (for å lage økter og grupper og angi egenskapene).
- Workflow Operator (for å utføre økt og batcher).
- Bruk Designer, Admin Repository (tillater enhver bruker å opprette og administrere repository).
- Admin User (lar brukeren opprette en repository-server og angi egenskapene).
- Superbruker (alle rettighetene tildeles brukeren).
Q # 51) Bruk fordelene til INFORMATICA.
Svar: Å bli ansett som det mest foretrukne dataintegreringsverktøyet, det er flere fordeler som må ververes.
De er:
- Det kan effektivt og veldig effektivt kommunisere og transformere dataene mellom forskjellige datakilder som Mainframe, RDBMS, etc.
- Det er vanligvis veldig raskere, robust og enkel læring enn noen annen tilgjengelig plattform.
- Ved hjelp av INFORMATICA Workflow Monitor kan jobber enkelt overvåkes, mislykkede jobber kan gjenopprettes så vel som sakte løpende jobber kan påpekes.
- Den har funksjoner som enkel behandling av databaseinformasjon, datavalidering, migrering av prosjekter fra en database til en annen, prosjektutvikling, iterasjon, etc.
Q # 52) Bruk noen få områder eller sanntidssituasjoner der INFORMATICA er påkrevd.
Svar: Datalager, dataintegrering, datamigrering og applikasjonsmigrering fra en plattform til andre plattformer er noen få eksempler på sanntids bruksområder.
Q # 53) Forklar ETL-programmet med noen få eksempler.
Svar: ETL-verktøyet er kjent for sin egenart, og står for Extract, Transform and Load-verktøy som i utgangspunktet løser formålet med å trekke ut data og sende et sted som definert ved å endre det.
For å være veldig presis:
- Utvinningsoppgaven er å samle inn data fra kilder som database, filer osv.
- Transformasjon anses å endre dataene som er mottatt fra kilden.
- Lasting definerer prosessen med å mate de endrede dataene til det definerte målet.
For å forstå på en teknisk måte, samler ETL-verktøyet data fra heterogene kilder og endres for å gjøre det homogent slik at det kan brukes videre til analyse av den definerte oppgaven.
Noen grunnleggende programeksempler inkluderer:
- Kartlegginger avleder ETL-prosessen med å lese data fra de opprinnelige kildene der kartleggingsprosessen gjøres i designeren.
- Arbeidsflyter består av flere oppgaver som avgjøres og utformes i Workflow Manager-vinduet.
- Oppgaven består av et sett med flere trinn som bestemmer rekkefølgen av handlinger som skal utføres i løpet av kjøretiden.
Q # 54) Bruk forskjellene mellom databasen og datavarehuset.
Svar: Se tabellen nedenfor for å forstå forskjellene mellom de to:
hvordan fikse standard gateway ikke tilgjengelig
Database | Datavarehus |
---|---|
Den lagrer / registrerer oppdatert og oppdatert som brukes i daglig drift | Den lagrer / analyserer historiske data som brukes til informasjonsstøtte på lang sikt. |
Dens retning er på online transaksjonsbehandling som inkluderer enkle og korte transaksjoner. | Dens orientering er på online analytisk prosessering som inkluderer komplekse spørsmål. |
Den består av detaljerte og primitive data der dens syn er flat relasjonelt. | Den består av oppsummerte konsoliderte data der synet er flerdimensjonalt. |
Lav ytelse observeres for analytiske spørsmål. | Analytiske spørsmål blir her vurdert som høy ytelse. |
Effektivitet bestemmes ved å måle transaksjonens gjennomstrømning. | Effektivitet bestemmes ved å måle gjennomstrømning og responstid. |
Sp # 55) Forklar funksjonene i oppkoblet tilkoblet og ikke-tilkoblet.
Svar: Funksjonene i Connected Lookup kan forklares som følger:
- Det er en direkte kilde til input fra rørledningen for tilkoblet oppslag.
- Den har aktiv deltakelse i dataflyten, og både dynamisk, så vel som statisk hurtigbuffer, blir brukt som tilfellet er.
- Den cacher alle oppslagskolonner og returnerer standardverdiene som utdata når oppslagsbetingelsen ikke samsvarer.
- Mer enn én kolonneverdier kan returneres til utgangsporten.
- Flere utgangsverdier overføres, så vel som utgangsporter er knyttet til en annen transformasjon.
- Tilkoblet oppslag støtter brukerdefinerte standardverdier.
Funksjonene ved ikke-koblet oppslag kan forklares som følger:
- Ikke-tilkoblet oppslag bruker statisk hurtigbuffer, og inngangskilden er resultatet mottatt fra utgangen av LKP-uttrykk.
- Den cacher bare oppslagsutgangsportene og returnerer verdien som NULL når oppslagsbetingelsen ikke samsvarer.
- Bare en kolonne returneres fra hver port.
- Bare en utgangsverdi overføres til en annen transformasjon.
- Brukerdefinerte standardverdier støttes ikke av ikke-tilkoblet oppslag.
Q # 56) Under den pågående økten blir utdatafiler opprettet av Informatica-serveren. Verve noen få av dem.
Svar: Nedenfor er noen få utdatafiler nevnt:
- Cache-filer: Disse filene opprettes når minnebufferen opprettes. Under omstendigheter som Lookup transformation, Aggregator transformation, etc index og data cache-filer opprettes av Informatica serveren.
- Sessionsdetaljfil: Som navnet definerer, inneholder denne filen laststatistikk som tabellnavn, rader avvist eller skrevet for hvert mål i kartlegging, og kan vises i skjermvinduet.
- Ytelsesdetaljfil: Denne filen er en del av sesjonsegenskapsarket og inneholder informasjon om øktytelse for å bestemme forbedringsområder.
- INFORMATICA-serverlogg: Serveren oppretter en logg for alle status- og feilmeldinger og kan sees i hjemmekatalogen.
- Sesjonsloggfil: For hver økt oppretter serveren en øktloggfil avhengig av angitt sporingsnivå. Informasjonen som kan sees i loggfiler om økter kan være:
- Initialiseringsprosess for økten,
- Oppretting av SQL-kommandoer for leser- og forfattertråder,
- Liste over feil og
- Lastsammendrag
- E-post etter økt: Dette hjelper til med å kommunisere informasjonen om økten (økt fullført / økt mislyktes) til de ønskede mottakerne automatisk.
- Avvis fil: Denne filen inneholder informasjon om dataene som ikke har blitt brukt / skrevet til mål.
- Kontrollfil: I tilfelle når økten bruker den eksterne lasteren, består kontrollfilen av innlastingsinstruksjoner og dataformat om målfilen.
- Indikatorfil: Denne filen inneholder i utgangspunktet et tall som fremhever radene som er merket for INSERT / UPDATE / DELETE eller REJECT.
- Output-fil: Utdatafilen opprettes basert på filegenskapene.
Q # 57) Hvordan skille mellom den aktive og den passive transformasjonen?
Svar: For å forstå forskjellen mellom aktive og passive transformasjoner, la oss se funksjonene som vil forklare forskjellene på en bedre måte.
Handlingen utført av aktive transformasjoner inkluderer:
- Endring av antall rader i henhold til kravet, som går gjennom transformasjonene. For eksempel, Filtertransformasjon som sletter raden som ikke oppfyller betingelsen.
- Endring av transaksjonsgrensen ved å angi tilbakeføring og forpliktelsespoeng. For eksempel, Transaksjonskontrolltransformasjon.
- Endrer radtypen for INSERT / UPDATE / DELETE eller REJECT.
Handlingen utført av passive transformasjoner inkluderer:
- Antall rader som går gjennom transformasjonen endres aldri.
- Transaksjonsgrensen er satt.
- Radtype er satt.
Q # 58) Bruk de forskjellige typer transformasjoner.
Svar: De forskjellige transformasjonstyper er som følger:
- Aggregator transformasjon
- Uttrykkstransformasjon
- Normaliseringstransformasjon
- Rang transformasjon
- Filtertransformasjon
- Snekkertransformasjon
- Slå opp transformasjon
- Lagret prosedyretransformasjon
- Sorter transformasjon
- Oppdater strategitransformasjon
- XML-kildekvalifiseringstransformasjon
- Ruteromdannelse
- Sekvensgenerator transformasjon
Sp # 59) Hva er Dynamic Cache?
Svar: INFORMATICA-oppslag kan kategoriseres som bufret eller ubufret. Når det gjelder dynamisk hurtigbuffer, kan rader settes inn eller slettes når radene passeres og synkroniseres med målet. Cache-minnet oppdateres hver gang etter sletting / oppdatering i økten.
Sp # 60) Hva er dekoding i statisk hurtigbuffer?
Svar: Statisk hurtigbuffer er den som verken oppdateres eller oppdateres i øktkjøringen. Det er standardbufferen og returnerer verdien bare når returbetingelsen er oppfylt. I andre tilfeller returnerer den null verdi. Sett inn eller oppdater cache kan ikke utføres i dette tilfellet.
Q # 61) Nevn noen fordeler med rutertransformasjon fremfor filtertransformasjon.
Svar: Rutertransformasjon og filtertransformasjon er de samme fordi begge bruker en betingelse for å teste og filtrere dataene.
Imidlertid kan fordelene med Router i forhold til filtertransformasjon forstås av de nevnte punktene.
Ruteromdannelse:
- Det tillater mer enn en testtilstand.
- Gi muligheten til å teste de samme inndataene på flere antall forhold.
- I tilfelle kartlegging behandles inngangsdata bare en gang av serveren, og dermed forbedres ytelsen.
- Mindre kompleks og mer effektiv.
- Postene som mislykkes i testtilstanden blir aldri blokkert i stedet, blir sendt videre til standardgruppen.
Q # 62) Bruk noen av egenskapene til øktene.
Svar: En økt er tilgjengelig i arbeidsflytbehandling og konfigureres ved å opprette en øktoppgave. Innenfor et kartleggingsprogram kan det være flere økter, og det kan enten brukes eller ikke gjenbrukes.
Noen av egenskapene til økten er som følger:
- I henhold til kravet kan øktoppgaver kjøres samtidig eller sekvensielt.
- En økt kan konfigureres for å analysere ytelsen.
- For å opprette eller kjøre en øktoppgave, er det nødvendig å ha generell informasjon om øktnavn, tidsplan og integrasjonstjeneste.
- Andre viktige egenskaper ved økten inkluderer øktloggfil, testbelastning, feilhåndtering, forpliktelsesintervall, målegenskaper osv.
Q # 63) Oppgi oppgavene som transformasjon av kildekvalifiseringen brukes til.
Svar: Kildekvalifiserende anses som en aktiv transformasjon som leser radene som er involvert i integrasjonstjenesten i løpet av den løpende økten. Den bestemmer måten dataene hentes fra kilden og legges til automatisk mens du legger til en kilde til kartleggingen.
Listen over forskjellige oppgaver der kildekvalifisering brukes, er som følger:
- Rader filtrering
- Datasortering
- Oppretting av tilpasset søk
- Sammenføyning av tabeller fra samme kilde
- Velge forskjellige verdier
Q # 64) Nevn noen Power Center-klientapplikasjoner med deres grunnleggende formål?
Svar: Oppgaver som opprettelse av økt og arbeidsflyt, overvåking av arbeidsflytfremdrift, design av Mapplets osv. Utføres av PowerCenter-klientapplikasjoner.
Nedenfor er listen over PowerCenter-klientapplikasjoner med deres formål:
- Repository Manager: Det er et administrativt verktøy og dets grunnleggende formål er å administrere depotmapper, objekter, grupper osv.
- Administrasjonskonsoll: Her utføres serviceoppgavene som start / stopp, sikkerhetskopiering / gjenoppretting, oppgradering / sletting osv.
- Power Center Designer: Designeren består av forskjellige designverktøy som tjener ulike formål. Disse designverktøyene er:
- Source Analyzer
- Måldesigner
- Transformasjonsutvikler
- Mapplet Designer
- Kartleggingsleder
- Workflow Manager: Dens grunnleggende formål er å definere et sett med instruksjoner / arbeidsflyt som kreves for å utføre kartlegginger designet i designeren. For å hjelpe deg med å utvikle en arbeidsflyt, er det tre verktøy tilgjengelig, nemlig Oppgaveutvikler, Arbeidsflyddesigner, Arbeidslesdesigner.
- Arbeidsflytmonitor: Som navnet antyder, overvåker arbeidsflyten arbeidsflyten eller oppgavene. Listen over tilgjengelige vinduer er:
- Navigator-vindu
- Utgangsvindu
- Tidsvindu
- Egenskaper-vindu
- Oppgavevisning
- Gantt kartvisning
Konklusjon
Jeg håper, nå må du ha fått en klar ide om verktøyet og typen spørsmål som blir stilt i intervjuer.
INFORMATICA er den beste løsningen for å utføre dataintegrering. Den fungerer med multidataadministrasjon i et miljø med flere plattformer som Windows, Linux, Unix, etc. og er testet over 50 000+ plattformer for bedre resultater og best ytelse blant flere andre.
I et nøtteskall er INFORMATICA et ETL-verktøy som samler informasjon eller data fra forskjellige kilder og laster den informasjonen til de definerte spesifikke målene uten å lagre den. Dens oppgave er å levere forskjellige tjenester og ressurser til forskjellige maskiner, og dermed må de leverte dataene være korrekte med bemerkelsesverdige resultater.
Pensle opp kunnskap om Informatica-konsepter gjennom denne artikkelen og bli forberedt på intervjuet ditt med en gang.
Beste ønsker!!!
Anbefalt lesing
- Intervju Spørsmål og svar
- ETL Testing Intervju Spørsmål og svar
- Noen vanskelige manuelle testspørsmål og svar
- Topp 32 beste datastasjonsintervjuspørsmål og svar
- Topp Teradata intervju spørsmål og svar
- Topp 30 SAS intervju spørsmål og svar
- Topp 24 spørsmål om datamodellering med detaljerte svar
- 10 beste verktøy for dataanalyse for perfekt datahåndtering [2021 LISTE]
- Data Pool Feature i IBM Rational Quality Manager for Test Data Management
- Test Data Management Konsept, prosess og strategi
- Topp 14 BESTE testdataadministrasjonsverktøy i 2021