Int ern at i onal  Journ al of Ele ctrical  an d  Co mput er  En gin eeri ng   (IJ E C E)   Vo l.   10 ,  No.   3 June   2020 ,  pp. 3 216 ~ 3226   IS S N: 20 88 - 8708 DOI: 10 .11 591/ ijece . v10 i 3 . pp3216 - 32 26          3216       Journ al h om e page http: // ij ece.i aesc or e.c om/i nd ex .ph p/IJ ECE   An effici ent reso urce sh aring t echn iqu e for  mu lti - t enant  datab ases       Palla vi G .   B . 1 P .   Jayarek ha 2   1 Depa rtment of  Com pute Scie n ce   and Engi ne ering ,   BMS   Coll eg of Engin ee ring ,   Indi a   2 Depa rt m ent   of  I nform at ion  Sci e nce   and Engi ne e ring BMS   Col lege  of Engin ee rin g Indi a       Art ic le  In f o     ABSTR A CT   Art ic le  history:   Re cei ved   Ma r 27 , 201 9   Re vised  N ov 9 ,   20 19   Accepte Nov 23,  2019     Multi - te n ancy   is   ke y   compone nt   of  Software   a Servic (Saa S)  par adi gm .   Multi - te n ant   soft ware   has  ga ine lot   of   attention   in  acade m ic s ,   re sea rch   and   business  are na.  They   provide   sca la b il i t y   and  ec onom ic   ben ef it for  both   cl oud  servi ce  provide rs  and  te nan ts   b y   sha ring  sam res ourc es  and   infra struc ture   in   isol at ion  o share da ta b ase s,  net work  and   computing   resourc es  with   Service  l evel  agr e ement  (SLA)  co m pli anc es.   In  m ult it ena n t   sce nar io ,   ac t ive  t ena nts c om pet e   f or  resourc es  in  o rde to   a ccess   th da ta b ase .   If  one  te n ant   b lo cks  up  the   resou rce s,  th per for m an ce   of  a ll   th othe t ena nts   m a y   b restr ic t e and  a   fa ir  sha ring  of  th r esourc es  m a y   be   co m prom ised.   The   per form an c of  te n ant m ust  not  be  aff e ct ed  b y   r esourc e - intensive  ac t ivi ties  and  vola tile  workloads   of  othe te nant s .   Moreove r,   the   prime  goal   of  prov ide rs  is  to  a cc om pli sh   low  cost  of   o per ation,   sa ti sf ying  spec i fic  sche m as/SLAs  of  ea ch  te n ant.  Consequent l y ,   t her is  nee t design  and  deve lop   eff ec t iv and   d y namic   r esourc sha ring  al gorit hm whic ca n   handle   above   m entione issues.  Th is  work  pre sents   a   m odel   r efe rr ed   as  Mult i - Te nan D y n amic  Resourc e   Sc hedul ing  Mode (MTDRS M)  embrac ing     quer y   c la ss ifica t ion   and   work er  sorting   techn ique   ena bl ing  ef fic i ent   and  d y nami resourc sharing   among  te nant s .   Th ex per iments  show   signifi c ant  per form anc e   improvem ent   ov er exi sting   m odel .   Ke yw or d s :   Cl oud  c om pu ti ng   Mult - it enan cy   Re so urce  m anag em ent   SLA   TPC - C   Copyright   ©   202 0   Instit ut o f Ad vanc ed   Engi n ee r ing  and  S cienc e   Al l   rights re serv ed .   Corres pond in Aut h or :   Pall avi G .  B.   Dep a rtm ent o f C om pu te Scie nce   a nd E ng i ne erin g,   BM S Co ll ege  of Enginee rin g,   VTU, Ba ng al ore,  India .   Em a il palla vi.cse@b m sce.ac. in       1.   INTROD U CTION   Cl oud  com pu t ing   c urre ntly   is  an  em erg in a nd   m os prom isi ng   te ch no l og y,   on  w hich  var ie researc has  be en  car ried  by   var i ou c omm un it ie [1 ] It  has  bee a dopted  by  va rio us  orga nizat ion   and   I T   industries  to  buil an de ploy   custom   m ade  app li cat ion   in  var i ou fiel ds   as   gen et ic   sci ence,  healt hc are   and   s on.  Cl oud  te chnolo gies  is  dri ve by  econom ie s   of   scal by  pr ovidi ng   la rg scal e   distribu te c ompu ti ng   infr a struct ur e i w hich  res our ce such  as co m pu ti ng po wer, stor a ge,  p la tf orm  etc. and  ser vi ces are p rovi de on  dem and   thr ou gh   i nter net  [ 2],  The  ser vice  offer e by  cl oud  te c hnol og ie are  broad ly   cl assifi ed  into   three   cat egories.  T he ar I nfrastr uc ture  as  ser vice  (I aa S) Plat f or m   as  serv ic (P aaS a nd   S of t war as  a   se rv ic (S aaS ).   Wh il IaaS  pr ov i der s   offer   var i ou hard war c ompu ta ti onal   nee ds Paa pr ov i der offer   fr am ewor ks  and   pro gr am m ing   la ngua ges   require to  de velo s of t wa re/ap p li cat ion s   and  SaaS  pr ov i der offe fu ll - fled ged   rea dy  to  use   a pp li cat ion   as  se rv ic e SaaS  is  a at t racti ve  off er  for  softwa re  c ompanies  a they   can   us var i ou s   a pp li cat io ns   without  the  nee to   purc hase   an m ai ntain  th em   on   thei ow in fr a str uctu re.   Als o,   ser vice  pro vid e achie ve fu ll   eco nom of   scal by  hosti ng  su c Sa aS  ap plica ti on   us in m ulti ten ant   m od el  w he re t enan ref e t a n orga nizat ion / com pan y.   Evaluation Warning : The document was created with Spire.PDF for Python.
In t J  Elec  &  C om En g     IS S N: 20 88 - 8708       An  ef fi ci ent res ou r ce s ha ri ng t echn i qu e  for   m ulti - te nant  da t abas es   ( Pallav i G .   B . )   3217   Mult it enan cy   is  on of   t he  ke con cer ns   i SaaS.  It  re fers  to  pr i ncipl in  so ft war arch it ect ure,   wh ic is  the  a bili ty   to  enab l SaaS  a pp li c at ion   to  se r ve   m ulti ple  te nan ts  us i ng   a   sing le   se rv ic i ns ta nce Mult it enan cy   inv a riably   occ urs  at   the  datab ase  la ye of  th SaaS  a pp li ca ti on   [ 3]  re ferre to  as  M ulti - te nan t   Data  Ma na ge m ent  Syst e m   ( MTDBM S)   w her m ulti ple  t enan ts  a re  c onso li dated  on  to   the  data  ti er  r eso ur c e   wh il at   the  sa m tim isolati ng   t hem   a m on one  an oth e as  if  they   wer e   runn i ng   on  ph ysi cal ly  segr eg at ed   resou rces.  Ma ny  orga nizat io ns   e xpor th ei data  to  t hir pa rty   MTD BM in  orde r   to  pro visi on   data  m anag em ent  s erv ic es.  MTDBM m a isolat te nan ts  in  sh ared   data ba se  syst e m   -   by  ded ic at ed  dat abases   (sh a re m achi ne  ap proac h),  -   by  sh a re dat abases  a nd   se pa rate  ta bles  or  schem as   (sh ar ed  proc ess  ap proac h)   or   by  an  ass ociat ion   of  each  da ta set   in   sh ar ed  ta ble  with  t he  ap pro pr ia te   te nan (s har e ta ble  appro ac h)  [4 ] .   Id e ntific at ion   of   recor ds   f or  par ti cula te nan is  done  ba sed  on   a   uni qu te na nt  id  [5 ] Howe ver,  on of    the  m ajo chall eng e posed  by   m ult it enan app li cat io ns   is  eff ect ive  util iz a ti on   of  res ource [6 ] Each  te na nt  is   sta ti cal l assigned   a eq ual  am ou nt  of   res ource This  m a le ad  to  ineffi ci ent  util iz ation   of  res ources   wh e there  a re  fewer  or   m or l oa ds   of  que ries  on  databases   than   ex pecte a nd  is  the r efore  undesira ble  i   m ultite nan s yst e m Moreover,  se rv ic pr ov i der s   m us al so   m eet   the  crit eria  of  Se r vice  Level  A gr e e m ent  (S L A)   [ 7] of te nan ts .   Ther a re  seve ral  dire  co ns eq uen ce  f or  both   te nan and   se r vice  pro vid er  s uch   as  ine ff ic i ency  in  data  centre  a nd r eve nu e li m i te cl oud  a pp li cabil it and  unpre dicta ble  ap plica ti on  pe rfo rm ance  [ 8].  H oweve r   these   issues  a re  beh i nd  the  sc ope  of  this  pa per.  I sta te - of - art  s ing le   te na nt  da ta base  syst em ,   the  tw as pec ts  of   perform ance  analy sis  are  s erv e hardw a r for  op e rati ng  the  databa se  an wor kl oad.  Howe ver  wit   m ul ti - te nan cy since  di ff e ren te nan acce ss   the  sam datab ase  at   dif fer e nt   rates,  wor klo a ds   a nd  com plexiti es,  vend or s   need  to  keep  c he ck  on  perform ance  at ta inm e nt  of  each   te na nt.  As  resul t,  optim al   reso urc e   util iz at ion   bec om es  k ey   req ui rem ent  fo the  ser vice  pro vid e rs.   T his  pa per   e xp l or es  re so urce  m anag e m en t   arch it ect ure  co m po sed  of  a rc hitec ture  a nd  s cheduli ng  strat egies  to  a ddres m ult it enan cy   issues,   pa rtic ul arly   sh ari ng  of  r es ources  am ong  te nan ts  i order   t c om pu te   intensi ve  qu eries  an scal abili ty   fo w ork flo execu ti on.   T pro vid sc al abi li ty the  MT - D BM sho uld   r un  on   lo c os com m od it har dware   an sca le   out   to a m any servers to  pr ov i de  s erv ic e t la r ge c onsu m ers.   Wor kf lo sc he du li ng  is  proces of   ide nt ify ing   an m anag i n th execu ti on  of  ce rtai ta sk   on    distrib uted   ne twork It  al lo cat es  certai a m ou nt  of  ap pr opriat res ourc to  ta s a nd  c om plete the  ta sk  within  us e r’s  def i ned   de adli ne  or   obj ect iv tim e.  Dev el op i ng   a eff ic ie nt  scheduli ng  m od el   will   ai in  i m pr ove  t he   ov e rall   syst em   per form ance.  Sc he du li ng   distri bu te t ask  is   co ns id ered  to  be   NP - ha rd    pro blem   [9 ] as  resu lt   no   op ti m al  so luti on   is  fou nd  w it hin   po ly nom i al   tim e.  To  achieve  nea opt i m a l   sche du li ng  m any  he ur ist ic   sc hedulin has  been  prese nted H oweve r,   t he se  te ch niques   are  no s uitab le   for  sche du li ng  workflo in  m ulti - te nan cl ou com pu ti ng   e nv i ronm ents.  To  a ddress  t hi issue,  t he  a uthors    of   [ 10 ]   pr ese nt ed  an   ef fici ent  w ork flo s cheduli ng  wh e re  pro of - of - con ce pt  e xp e ri m ent  of   real - worl sci entifi wor k fl ow   a pp li cat ion has  bee per f orm ed  to  dem on strat the  scal abili ty  of   the  sc hedulin al gorithm whic ve rifies  th eff ect ive nes of  the  pro pose s olu ti on.   H ow e ver  the did   no c onside r     the  i m pact  of  resour c fail ur a nd   dyna m ic   SLA   requirem ent  of   T enan ts Mor eo ver,  eff ic ie nt  resou rc e   al locat ion   an load  bala ncin te chn iq ue  is  r equ i red,  beca use   there  is  un c ertai nty  in  resour ce  a nd   loa wh ic changes  over  t i m e.  Re qu est   f or   resou rces  c hanges  over  ti m and   the  r es ource  it sel un derg seve ral  changes    (i.e. re s ource c an jo i n or l eav e a n et wor k) . T hese  dynam ic  u nce rtai nties m igh t l ead  to  p e r form ance b ottl eneck.   This  w ork  pr e sents  dy nam ic   scheduli ng  te chn iq ue  for  Mult i - Tena nt  SaaS  cl oud  e nvir on m ent  ov e rc om ing   the  ab ov c halle ng e s.  Fir stl y,  arch it ect ure  of   the  pr opos e Mult i - Tena nt  Database   Sys tem   is   pr ese nted . S ec ondly for d y na m ic  sch edu li ng , th e query (l oa d)  a nd   res ourc e inf orm at ion  is colle ct ed  accor ding  to  Mem or y,  I/O  an CPU Thir dly  the  query  an res ource  a re  div i de into  th ree  qu e ues  acc ord ing   to   Mem or y,  I/ a nd   CP intens ive.  Last ly the  scheduler  util iz es  the  ov e rall   resou rce  avail able  and   sc he dule   to   resou rce  with  l igh te loa ds.  T his  ai in  bala ncin the  loa and   m ake  fu ll   us of  idle  inst ances.   T he  pa pe is   org a nized  as  f ollows:   In   sect ion   2 stud of   relat ed  wor is  been   car ri ed  out.  sim p le   m ult it enan database   arch it ect ure  an relat ed  al gorithm and   flo w cha rts  ar disc us se in  sect io 3 Ex pe rim e ntal  set   up   a nd  res ults   are  discuss e i sect io n 4. Fi nally , s ect ion 5   co nclu des  t he pape r.       2.   RESEA R CH  ME THO DOL ODY   The  iss ues  per t ai nin to  sc he duli ng  ta sk   on  m ul ti ple  work e rs  has  been  wi dely   stud ie in   distrib uted ,   par al le l,  gri a nd   cl us te c ompu ti ng  a nd   i r ecent  ye ar   the  sam e   kin of   s tud is  bee ca rr ie out  co ns ideri ng  virtu al   w orke rs   on   cl oud  e nv i ronm ent.  The  te chn i qu e ad opte by  these  m od el diff er  f ro m   char act erist ic   of   work l oa d,   res ources,  perfor m ance  m et ric   and   sch ed uling   in  m ulti a gen arc hitec ture  [ 11] All  these   m et ho dolo gies   are  de sig ned   base on  Heur ist ic   Algo rit hm Meta - Heurist ic   Algo rithm Scie ntific   Workflo ws  Exec ution,  De adline - a ware  S cheduli ng  an Mult i - te nan S aaS  A pp li cat io ns wh ic is  ex te ns ively   resea rch e in the p resen te d work.   Evaluation Warning : The document was created with Spire.PDF for Python.
                          IS S N :   2088 - 8708   In t J  Elec  &  C om En g,   V ol.  10 , No 3 J une  2020   32 16   -   3226   3218   Heurist ic   Algo rithm Ma ny  e xisti ng  ap proa ches  ha ve  c onsidere heurist ic   m et ho ds  f or  cl us te ri ng ,   ta sk   duplica ti on  an sche duli ng.  Few  e xam ples  are:  In   [ 12 ]   Jing - Chi ou   L iou   et   al pr ese nted  ta sk   cl ust ering  al gorithm   with  no  du plica ti on   nam el CASS - I I.   T hey  c om par ed  their  a lgorit hm   with  DS in  te rm of   both   sp ee and   s olut ion   qual it y.  In   [1 3]  R.  Ba j aj  and   D.   P.  A grawal  pr ese nted   ta sk   duplica tio based   sc he du l i ng   m echan ism   fo heter o ge ne ous  netw ork  (T ANH).  In   [14 ] Hetero ge neous  Earli est   finish   tim ( HEF T )   sche du li ng  te c hn i qu for  sin gle  w ork  flo w   was   prese nted  by  H To pc uoglu,  S.  Har i ri,  an M.  Y.Wu   a nd     in   [ 15 ]   H.   M.   Far d,   et   al .,  pr esented  m ult i - obj ect ive   he uri sti sche du li ng  f or   gri a nd  cl ou e nv ir onm ent.   Howe ver   t hes m od el are   not  su it able   for  m ulti - ten ant  cl oud  e nv i ronm ent,  due  to   un pr e di ct able    perform ance  (thro ughput) Since  so m te na nt  m ay  op for   best  eff ort   be hav i or   [ 16]   and   so m m a p ref e r   perform ance isolat ion .   Me ta - Heurist ic   Algorithm To  m ini m iz wo rk fl ow   e xec utio co st  in  cl oud  env i ro nm ent,  the  aut hor s   i [17,   18 ]   ha ve  ad op te pa rtic le   swar m   op ti m iz at ion   (P S O)   based   sche du li ng  te chn i qu e   a nd   in   [1 9]     an  opti m iz at ion   of  ge netic   al gorithm   (G A ),   An c olony  optim iz ation   ( AC O)   a nd  PS ha bee im ple mented .     In   [20]  H M.   Far et   al .,  ha i m ple m ented   dynam ic   s cheduli ng  a nd  pr ic in m od el   for  sin gle   query  f or  m ul ti - cl ou pl at fo rm   and   has   com par ed  with  tra diti on al   m od el   m ulti - obje ct ive  ev olu ti onary  al gorit hms,  i.e.,   NSGA - I an SPEA2.  T he se  entire  m odel are  desig ne to  optim ize  in  gr id  e nviro nm ent  and   induce  com pu ti ng   ove rh ea d. He nce t hese m od el s a r e not s uitable  for l arg e  wo rkflow ap plica ti on.    Scie ntific   Wor kf l ow s   Ex ecuti on I [ 21]   the  auth or s   ha ve  stud ie the   pe rfo rm ance  and  co st  involve in  com pu ti ng   in  public  cl oud  env ir on m ent.  They  showe that  a m azon   EC2  is  no su it able  for  I/O  int ensiv e   app li cat io ( N ASA  H PC  cl ust er)   due  la ck  of  pa rall el   heter og e ne ous  com pu ti ng  platfo r m To  i m pr ov e   syst e m   perform ance  the  aut hors  of   [22]  pr e sorte local it awar sche du li ng.  H ow e ve eval ua ti on   on  dynam ic   real  world  wor klo a is  not  car ried  out.  Sim il arl D.   Y ua et   al in  [ 23 ]   pre sented  data  placem ent  strat egy  in  sci entifi c clo ud workfl ow s  b adoptin g k - m ean clu ste rin g.   Dead li ne - a ware  Sche duli ng :   The   aut hors  of  [ 24 ]   ha ve  stud ie dynam ic   resou rce  al locat ion  f or   adap ti ve  a ppli cat ion   on  cl ou platf or m They  ad op te Q - le ar ning  bas ed  le arn i ng   m od el   to  m eet   t he  us e def i ne  dea dlin for  pa rtic ular   app li cat ion   re qu i rem ent.  gri d   ba sed  sc he du li ng  m od el   f or   dead li ne  co ns trai nt   weathe f or eca sti ng   syst em   a nd   he ur ist ic   m od el   to  m eet  dead li ne   f or   s ci entifi app li c at ion   w ork flo ha s   been   pr e sente in  [ 25,   26 ]   resp ect ively I [ 27 ]   S.  A bri sh am e al pr ese nted  s che du li ng  strat e gies  f or    sing le   w ork flo instance  f or  IaaS  cl oud  pl at fo rm Howe ver   none  of   th ese  m od el co ns ide red   m ulti - te na nt     cl oud  e nv i ron m ent.   Mult i - te nan S aaS  A pp li cat ion s:  Ma ny  ap proac hes  ha ve   been   present ed  f or   m ulti - te nan Saa S   app li cat io ns two - ti er  m u lt it enan ar chite ct ur has  bee presente in   [28].  m od el   to  determ ine  op ti m al  al locat ion   poli cy   and   res ource  al locat io m od el   for  Sa aS  ap plica ti ons  has  bee presented  in  [29 ,   30 ]   resp ect ively .   I [31]  S.   W al r aven  et   al pr e sented   an   ada pt ive  m idd le wa r desi gn  f or  ef fici ent  m ulti - ten ant   SaaS  ap plica ti on s .   T he  aut hors  i [ 32 ]   hi gh li ghte t he  pro blem   of   tra diti on al   CPU  sh ari ng   a ppr oa ch  f or   Database   as  serv ic (DA A S)   sce nar i a nd  hav e   pro pose a ef fecti ve  and  ef fici ent  C PU   s ha rin te c hn i qu e They  hav fo c us e on   fi n e - grai ne reservat ion   of  CPU  wi thout  sta ti a llo cat ion.  The  w ork  al so   sup ports  on   dem and   res our ce  avail abili ty H ow e ver  s ha rin of   CP r edu ce the   sys tem   cost  but  a the  sam tim i t   reduces  t he  sy stem   per form a nce  as  well .   I [ 33 ]   Vi vek   Nar asay ya   et   al pr opos e a   reservat ion   te chn i que   cal le SQ L V of   key  resour ces  i data base  syst em   su ch  as  CP U,   I/ O an m e m or y.  The  a uthors  cl aim   that  un li ke  t rad it ion al   VM,  S Q LVM  is  m uch   m or li gh twei ght  as  it on ly   goal   is  to  pro vide   resource   isol at ion  acro s te na nt s.   I [ 34] Ying   H ua  Z hou  et   al   has   intr od uced  DB2 M MT  (m assive  m ul ti - te nan da ta base  platfo rm high   le vel  a rch it ec ture.  T he  a uthor   has   a ddress ed  key  te ch nic al   chall en ges,  includi ng  re source te nan an offe rin m anag em ent,  m on it or in g,   scal a bili ty   a nd   sec uri ty Th ey   hav c om par ed  th eco no m ic of   DB2 MM T a nd  trad it io nal s olu ti on w it h p rec ise  d at a s howi ng accepta ble  perform ance .   To  co nclu de,   extensi ve  surv ey   and   the  stu dy  of   relat ed  work   s howcas that  scheduli ng   a nd   lo a balancin play an  i m po rta nt  ro le   in  i m pr ovin the  pe rfo rm ance  of   m ul ti - te nan cl oud  arch it ect ur e Ma ny   appr oach es  a dopt  var io us   he ur ist ic Me ta   he ur ist ic cl us te rin an opti m iz at ion   te chni qu es  to  cl assi fy  us er   qu i res  an res ource  cl assifi c at ion All  thes appr oach es  a re  tim con sum ing   proce s se s,  in du ce  c ompu ta ti on   ov e r head  an are  a nd   m ay   no be  a ppli cable  f or   dy nam ic   workflo pro visio ning.   T ov e rco m these  chall enges, w e   prese nt  an   ef fi ci ent  sche duli ng  te c hn i qu e   f or  m ulti - Tenan t cl oud  a rch it ect ur e   that fu ll y u ti li ze s   the syst em  r esources  w it h SL A gu a ra ntee.         3.   ARCHITE CT UR OF  M U LT I - TE NAN T DA T ABA S E SYS TE M   3.1.   Model li ng   of  multi - te nant  s ys te m   An  ove rall   ar chite ct ur of  Mult i - te nan da ta base  syst e m   is  pr ese nte in   Fig ure  1.  T he  Te na nt   Ma nag e m ain ta ins  th ser vice  le vel  a gree m ent  receiv ed  f r o m   the  te nan ts.  The se   SLA  base te nan t   requirem ent  is  consi der e for  desi gn i ng  m ul ti te nan syst e m   and   m ai n ta ining   t he  sys tem   Qo ( Lat ency).     Evaluation Warning : The document was created with Spire.PDF for Python.
In t J  Elec  &  C om En g     IS S N: 20 88 - 8708       An  ef fi ci ent res ou r ce s ha ri ng t echn i qu e  for   m ulti - te nant  da t abas es   ( Pallav i G .   B . )   3219   The  ot her   i nput  to  Tena nt  Ma nag e is  th te nan co nf i gurati on  file   wh e re  te na nt  sp eci fic  set ti ngs  are   est ablished .   Te nan ts  request  f or   the  ta s e xe cution  or  data  base  acce ssi ng.  Tena nt  Ma na ger   c hec ks   the   load   and   sc he du le the  te nan as  per   a vaila bili t of   the  w ork ers  base on  SLA   c on st rain of   the  co rr es pondin te nan t.   Wo r ke r exec ute  the   t ask.   DB  c on ne ct or   is   us e f or  est ablishi ng  the  c onnecti on  betwee dat abase  serv e a nd   Ten ant  Ma na ger.  The  ty pe  of   da ta base  sha rin appr oach   us e is  the  schem base m ulti - ten ancy   appr oach.  A dynam ic  r esource  sch e duli ng sys tem  f or  a ssig nin g j obs is i ntr oduce i the   ne xt secti on.           Figure  1 .   A rch i te ct ur of  m ulti - te nan databa se syst em       3.2.   Multi - ten ant  dy n amic res ourc e sche duli ng  m od el   The  obj ect ive  of   pro po se dy nam ic   reso ur ce  sche du li ng  syst e m   is  that  the  Me m or y,  I/O  an CPU   us a ge  do  not   confli ct   each   oth e in  ord er  to  im pr ov e   sche du li ng  pe rfor m ance  an util iz ing   res ource  eff ic ie ntly Le t’s  co ns ide case  wh e re  s om qu ery  ex ecuti on   re qu ir es  le ss  I/O  or   Mem or resour ces ,     bu it   m igh re qu i re  hi gh e C PU   resou rce  t c om plete   the  ta sk T his  sce nar i can   be   e ff ect ively   s olve by   pro po se dy nam ic   sched uling   syst em a nd   m or eo ver   eff ect ive  loa balancin ap proac ai in   bette r   util iz at ion  of  i dle insta nces.   The  sc he du li ng syst e m  co m pr ise s of t hr ee m od ules   Te nan Task  Mana ger(TT M)         Glob al  Ten a nt Man ager(G TM)        Dy nam ic  Sch ed uler     3.2.1 .   Sy s tem   mod el   Ar c hitec ture  of  syst em   fr a m ewor is  pres ented  i Fig ure  2.   T he  Te na nt  Task   Ma na ger   (TTM )   m anag es  t he   ta sk /q ue ry  r equ e ste by  the  te na nt.  S i m ultaneou sly   it   al so   pro cesses  the se  request.     The  processe requests  are   f urt her   div i de into  se par at qu eues  based   on  the  te na nt  requ irem ent  of   Me m or y,   I/O  a nd  CPU   f or   c om pu ta ti on  or  searc hing  of  data.   Me an w hile,  the  L ocal  Wor ker   Ma na ge (L WM)   m on it or s     the  w orke loa a nd   updates  t he  in form at ion   to  the  Global   Tena nt  Ma na ge ( GTM) GT so rts  t he  a va il able   workers   base d   on  CP U,  I/ O   an Me m or for  processi ng  ta sk .   Dy nam i sche dule w orks  betw een   Tena nt  Task  Ma nag e r   an Gl ob al   Tena nt  Ma na ge r.   Sc he du le ta kes  the  re quest   ta sk   que ue   from   Tenan t   Task   Ma nag e an i nfor m at ion   fro m   the  Glob al   Tena nt  Ma nager  an sc hedul es  the  ta s ba s ed  on  best  co m pat ible  value f or   both  Global  Te nan Ma nag e a nd T enan Task  Ma nag e r.     3.2.2 .   Sy s tem   pa r amet er s   Let   us  co ns i der    te na nts,    workers   an   num ber   of que ry  re quest s.    Wor ker s   are   re pr ese nted   as     { 1,   2,  …a ,   an   queries  a r represe nted  as{ 1,  2,   3,   }.     The  w orke rs  in  cl oud  en vi ronm ent  rep re sent  set   of  virtu al   m achines  w hich  a re  threa ds   in   our    exp e rim ents.  Each  th read’s  c om pu ti ng   ca pa bili ty   is  def ine by  it pa ram et er  su c as  M e m or y,  I/O   an CP U     (i.e.    ( )   wh e re    de fines  Me m or us age,    def i nes  I/ wait in ti m an   de fi nes  CP U   util iz at ion  r es pe ct ively ).  T he GTM  per i od ic al ly  co ll ect s an d updates t his infor m at ion  from  LW M.     Evaluation Warning : The document was created with Spire.PDF for Python.
                          IS S N :   2088 - 8708   In t J  Elec  &  C om En g,   V ol.  10 , No 3 J une  2020   32 16   -   3226   3220       Figure  2 .   A rch i te ct ur of  m ulti - te nan dynam ic  r eso urce sc he du li ng m od el       3.2.3 .   Quer c lassifier   In it ia ll y,  the  te nan ta s m anag er  c ollec ts  te nan s ubm i tt e que ry  al ong  with  the  resou rce  re qu i red  inf or m at ion   to  proces t he  qu ery  an SL r equ i rem ent Th qu e ry  s p eci fi es  query  siz S y,  require CP Vy ,   m e m or Ry  ,tim req uire f or  the  exec ution  By   [Th is  infor m at ion   is  ob ta ined  f r om   con fig  file   fo eac te nan t   sh ow in   F ig ure   1] . T he  i nform at ion  is g at he red  i n order  to c at er th queri es d em and in g dive rsified  r es ourc es .   Hen ce f or th a   query  r eq uest ed  by  te na nt  is  represe nted  as  Qy  ( Ry Vy,  Sy,  By ). The  TTM   furthe r   determ ines the  I/O req uire as :     D y = S y V y   (1)     The  I/O  us a ge  is  directl depend e nt  on  the  qu e ry  siz and   CPU  capa bili ty   and   is  therefore  c om pu te by  the  rate  of     and  .   F ur t her ,   the  rec ei ved   queries  are  cl assifi ed   and  que ued  up I order  to  c la ssify     the  receive query,  t he  cl oud  resou rce  pa ra m e te rs  (system   par am et ers  in  our  case )   R k D k   an V k of   Me m or y,   I/O  a nd  CP a re  def in ed T he n,   f or   each   que ry  Qy,   wei gh ts   of  R,   D   an V   are  c om pu te by  it val ue  Ry D y   and  V y   and  R k D k   an V k Th m axim u m   of   th ese  three   wei gh ts  are  c onsi der e as   que r group   Qyg .     If   Qyg  D th qu e ry  is  portion e int que ue   of   I/O  inte ns ive,  if    the  query  is  portio ne into  queue s   of   CP intensi ve  an so   on.  In   the  pro po se m od el   the  qu eries  in  the se   three  que ues  are  eq ual  to  th total   nu m ber   of que ries (i.e . eac h o ne of  thr ee  que ues  m akes up o nly o ne part  of  al l qu e ries).     Q yg = ma x ( R , D , V ) = ( R y R k , D y D k , V y V k ) .   (2)     Finall y,  total   qu eries  w hi ch  are  par ti ti on e into  th re qu eries  are  represe nted  as       and     of    I/O  inte ns ive   CPU  inte ns i ve  an   −    −    Me m or i ntensi ve  res pe ct ively   by  the  qu e ry    gro up  .     L QD = { Q j + 1 , Q j + 2 , Q j + 3 , , Q yD , , Q j + i }   (3)   L QV = { Q 1 , Q 2 , Q 3 , , Q yV , , Q j }   (4)     L QR = { Q j + i + 1 , Q j + i + 2 , Q j + i + 3 , , Q yR , , Q M j i } .   (5)     A deta il ed  di a gram  is sh own  in  Fi gure  3     Evaluation Warning : The document was created with Spire.PDF for Python.
In t J  Elec  &  C om En g     IS S N: 20 88 - 8708       An  ef fi ci ent res ou r ce s ha ri ng t echn i qu e  for   m ulti - te nant  da t abas es   ( Pallav i G .   B . )   3221       Figure  3 .   Q uery   cl assifi cat ion t echn i qu e       3.2.4 .   Wor ker  so rtin g tech nique   The  w orke in  cl oud  en vir onm ent  con sist of   set   of  vi rtua m achine  (threads) Each  vir tual  m achine   com pu ti ng   ca pa bili ty   is  def ined   by  it para m et er  su ch   a Me m or y,  I/O  a nd  CPU   (i .e.  L x = ( R x , D x , V x ) .   This  param et er   def ines Mem or us a ge,   I/ wait ing   tim a nd   CP util iz at ion T he  GTM   per io dical ly   c ollec ts   and   updates  t his  inf orm ation   f ro m   L W M.   L W gathe rs  Me m or us age,  I/O  w ai ti ng   pe rio an CPU   util iz at ion   inform ation   from   l ocal  wor ker e it her   per i odic al ly   def ined  by   us er  or  w he 50 of   the  t ask  is  com plete in  par ti cular  th read.  L W tr ansm it s   this  i nfor m at ion   to  the  GTM.   Ne xt,  GTM  s or ts   these   workers  from   sm a ll   to  la rg consi der i ng  M e m or y,  I/ a nd  CP re sour c es  an form qu eue   and    resp ect ively   i. e. LR  ho l ds   the  w orke rs  in  the  i ncr easi ng   orde of   t heir  m e m or capaci ty LD  ho l ds   the  wor ker in   the  increasin order   of   their   I/O  capaci ty   and   L hold the  sam e   wo r ke rs  in  the  inc r easi ng   order o CP a vaila ble r e sp ec ti vely .       L R = { W 1 , W 2 , W 3 , , W yR , , W H }   (6)       L D = { W 1 , W 2 , W 3 , , W yD , , W H }   (7)       L V = { W 1 , W 2 , W 3 , , W yV , , W H }   (8)     All  the  w orke r are  s or te rat her   t han  cl assify ing,  due  t s iz and   res our ces  dynam ic s.  As  resu lt ,   these  th ree  que ues  ar com posed  of   w orker s   with  al the  re so urces unli ke   the  que ries  qu eue.  C onseq ue ntly the  pro posed  m od el   co m pr ise of   t wo   ty pes   of   qu e ues Th qu e ry  que ues   represe nting   Mem or y,  I/O  a nd   C P U   intensive   queri es  an the   w orke qu e ues,  wh ic are   f orm ed  by  s or ti ng  Me m or y,  I/ a nd   C PU  lo ad  f r om    sm a ll  too  b i g.     3.2.5 .   D ynami c scheduli n g a pproach   Last ly the  scheduler  assi gns  qu e ry  (b a se on  it ty pe, weig ht  an S LA)from   qu eu es  of   Te nan t   Ma nag e to   w orkers  s or te by   GTM.  i.e .,  ba sed  on  weig ht   (CPU)  assi gn ed  to   qu e ry  say   q1  high  or  lo CPU  util iz at ion   w orker   is  al locat ed.   I qu e ry  has  le ss   weigh t then  it   is  assigned   work e with   le ss  process i ng   po wer   a nd   f or   hig he w ei ght  query  w orke r   with  hi gh   pro cessi ng   powe r   is  assigne d.A   qu e ry  q2(m e m or or  i/ intensive )   in  accor da nce   with  it weig ht  can  be  assi gn e to  w orker   wh ic is  a lready   execu ti ng  a no t her   qu e ry  if  it   has  en ough  r eso ur ce  to  handle   the  query  and   al s SL of   the  query  is  m et   If   neithe fail a n e w wor ker  i s assig ne to  query  q2.   Be sides,  f or   m axi m iz ing   reso urce  util iz ation t he  query   is  assigned   t w orker   w it le ss  load     (i.e.  as sig ning  qu e ry  c orres pond i ng  to   it ty pe  a nd  loa d).  Fo r   e xam ple,  the  Me m or y,  I/ a nd  CP int ensiv e   qu e ries  ar ass ign e to   w orke with   lo Me m or y,  I /O  a nd   CPU  us a ge  res pecti vely Mo r eov e r,   t he  sc he du le r   will   assign  eac query  f ro m   e ach  queu to  diff e re nt  avail able  wor ker   f or  si m ultaneou e xecu ti on.  T his  a ids   in r e duci ng the  load an e nha nce syste m  eff ic ie ncy.   Evaluation Warning : The document was created with Spire.PDF for Python.
                          IS S N :   2088 - 8708   In t J  Elec  &  C om En g,   V ol.  10 , No 3 J une  2020   32 16   -   3226   3222   3.2.6 .   D ynami c scheduli n g a pproach   If   the  num ber   of   w orke rs  are   m or than  the   req ue ste nu m ber   of   qu e rie then  base on  requirem ent  the  sche dule will   assign  the   qu e ry  to  the  worker  m ai nta ining   t he  lo a d.  Howe ver   if  r equ e ste nu m ber   of  qu e ries  are  m or tha the  a va il able  work e rs,  then  queries  ne eds  to  be   assi gn e in   gro up  as  show in   F i gure  4.  It  m akes  on batch  of  queri es  fr om   s ub   queries,  qu e ues   it   as   g=M/ G ,   wh ere  re presents  the  nu m ber   of   qu e ues  cre at e d.  Rem ai nin M - queries  will   be  con sid ered   in  ne xt  gro up.  If   M - g> then  the  pr ocess  of   gro up i ng  the  queries  is  co ntinu e oth e r wise  w orker s   are   a ssign e t qu e ries  on  a   re gu l ar  ba sis.  T his  proces s   is  rep eat ed  un ti execu ti on  of  la st  qu e ry.  I th is  appro ac ea ch  w orke is  assigne with on ta sk   an us a ge of   CPU,  m e m or and   I are  a ll   m ai ntained.   Tena nt  qu e ry  execu ti on  is  al so   faster  yi el ding  to  high  s yst e m   perform ance an d t hro ughp ut.     3.2.7 .   D ynami c scheduli n g a da p tivit y me t ho d   If   the  num ber   of   w orke rs  a re   m or than  the   req ue ste nu m ber   of   qu e rie then  base on  requirem ent  the  sche dule will   assign  the   qu e ry  to  the  worker  m ai nta ining   t he  loa d.  Howe ver   if  r equ e ste nu m ber   of  qu e ries  are  m or tha the  a va il able  work e rs,  then  queries  ne eds  to  be  assi gn e in   gro up  as  show in   Fi gure  4.  It  m akes  on batch  of  queri es  from   su queries,   que ues   it   as  g=M/ ,   where  repr esents  the  nu m ber   of  qu e ues  create d.  Rem ai nin M - queries  will   be  con sid ered   in  ne xt  gro up.  If   M - g> then  the  pr ocess  of   gro up i ng  the  queries  is  c onti nu e oth e r wise  w orker s   are   a ssign e t qu e ries  on  a   re gu l ar  ba sis.  T his  proces s   is  rep eat ed  un ti execu ti on  of  la st  qu e ry.  I th is  appro ac ea ch  w orke is  assigne with on ta sk   an us a ge of   CPU,  m e m or and   I are  a ll   m ai ntained.   Tena nt  qu e ry  execu ti o is  al so   faster  yi el ding  to  high  s yst e m   perform ance an d t hro ughp ut.           Figur e   4 .   Flo w char of  dy nam ic  sch e du li ng a dap ti vity  m et ho d       4.   E X PERI MEN TAL RES UL T AND  A NAL YS IS   We  ha ve  co nducte seve ral   exp e rim ents  to  evaluate  th perform ance  of   pr opos e m od el   ov er   existi ng   Mute   Be nch   ap pro ach  [ 4]  in  te rm s   of   la te ncy  and   th rou ghput  (transac ti on  per   seco nds) .   Fo r   exp e rim ent  evaluati on   OLT P   an YC SB  be nch m ark   is  us e d.   T he  M ute  Be nch  m od el   is  desig ne usi ng   j a va   fr am ewo r in  wh ic the  aut hors  ha ve  at te m pted  to  up gr ade  OLT P - Be nch   int Mult i - Tena nt  Da ta base  Be nch m ark   Fram ewo r k.   I the  pr e sente work,  we  ha ve   incorporate pr op os e Mu lt i - Tenan Dy nam ic  Re so urce  Sc he du le Mo del  (MTDRSM into  [4 ] We  f ur t her   e xten de m od el   [4 ]   t s upport  wor klo a execu ti on  f or  diff e re nt   ben c hm ark and   m ul ti - te nan w orkloa exec ut ion   on  dif fere nt  database  s uch   a s   My SQ L,  Or a cl e, and  H 2D B  e tc . b us in g Hi bernate f ram e work.   The  MT DRS is  dev el oped  us in J AVA  program m i ng  la ngua ge  on  ecl ipse  ne on  f ram ewo r k.     The  syst em   env ir on m ent  us e f or  w orkl oad  exec ution  is  I - 5,  3 . GH z , q ua c or e In te cl ass  proce ssor w it 16  GB  RAM.  We  hav co ns i de red   w orkl oad  execu ti on  of   TPCC   and   YCSB  be nchm ark   on  H2   database .     The  w orkl oad   execu ti on  is  ca rr ie out  f or   both  with  a nd   wi thout  SL com pliances.  Ea ch  te nan is  gi ven   set   Evaluation Warning : The document was created with Spire.PDF for Python.
In t J  Elec  &  C om En g     IS S N: 20 88 - 8708       An  ef fi ci ent res ou r ce s ha ri ng t echn i qu e  for   m ulti - te nant  da t abas es   ( Pallav i G .   B . )   3223   of   wor ker   (t hr e ads)   for  w orkl oad   e xec ution.   The  num ber   of  w orker   is  vari ed  as  10,  20   a nd   50.  T he  te na nt  I D   is  increm ented  by  (i.e f or  10,  20  a nd  50  w orker  the re  a re  4,   a nd  17  te na nts,  res pecti ve ly an d   te na nt  pe r   execu ti on  is  c on si der e d.   Eac te na nt  execut es  it wo rk l oa with  un li m i t ed  data  rate.  T he  OLT an YCSB   work l oa m ix is co m po se d of  25% r ea d rec ord  a nd 15%  for  each  oth e tra nsa ct ion  ty pes .     4.1.   SLA  an d  SL A  brea c h   In   t he  Qu e ry   Q y =   ( K y , V y , R y , T y ) if  the f irst  t hr ee   par am et ers  re pr ese nt q ue ry  s iz e,  CPU u ti li zat ion  and  m e m or that  t he  te na nt  app li es   to   us e,   the T y   is  t he  S LA   breac of  t he   query.   T hes par am et ers  c om e   from   the  Ten a nt  ta sk  m anag e a nd  a re  s ubm it te by  te nan t s.  If  the   query   Q y fail   to  m eet   T y   de fine by  te na nt   to it s servic prov i der, the t he  SL is c onsidere t o be  br e ached. T he SL is m easur e d as f ollows:   Qu e ry r et rieval  tim e is cal culat ed             q R e trie v a l = ( q y w + q y pr oc es s ed ) H   (9)     w he re   q y w   is  the  wait ing   ti m e,   q y pr oce ss e d   is  the  proces sing   or  qu e ry  com pleti on   ti m and   is  t otal  nu m ber   of que ries.   C heck if  q R e t rieva l T y . If  ye s  query  is breache d.     4.2.   Latenc y perf or man ce  evalu at i on   In   Fig ur e   the  la te ncy  perform ance  cons iderin dif fer e nt  w orke without  SL c om pl ia nces  is   sh ow n.   It  is  seen  from   gr ap the  MTDRSM   perform better   than  Mu TeB ench   in  te rm   of   la te ncy  per for m anc e   consi der i ng   va ried  w orke r.   T he  MTDRSM   reduce  la te ncy  by  23 . 87% 11. 82%  an 46. 63%  co ns ide ring   10,  20   a nd   50   wor ker   re sp ect ivel y,  ov e MuTe Be nch.  A ave rag la te ncy  re du ct io of  27. 44%  is  achiev ed  by   MTDRSM   ov er  MuTeB enc h.   Sim i la rly In   Fig ur e   the   la te ncy  per for m ance  con si de rin dif fer e nt  worker   with  S LA   com pliances   is   sho wn.  It  is  see from   gr ap t he   MTDRSM   pe rfor m bette t han  MuTeB e nc in   te rm   of   la te nc perform ance  co ns ide rin va ried  w orker.  The  MT DRS reduce  la te ncy  by  23. 08%,  11.7 %   and   45. 83 c onside rin 10,  20  an 50   w ork er  res pecti vely over  M uTeB ench.  A a ve ra ge  la te ncy  re duct ion  of   28. 2%  is  ac hieve by  MT DRSM  ov e M u TeB enc h.  It  i seen   f ro m   Figure  a nd  Fig ur e   t hat  pr ovisi on in SLA  t te nan t i nduces  a slig ht overhea in  lat ency pe rfor m ance.             Figure  5.  A verage lat ency ac hieve d for  var i ed   worker  with ou t  SLA     Figure  6.  A verage lat e ncy ac hieve d for  var i ed  worker  with  S LA       4.3 .   Throu gh p ut ( t ransacti on   pe r seco nd  e valu at i on )  per fo r man ce  evalu ati on   Table s   an descr ibes  the  transacti on  sta tus  with ou an with  SLA   res pecti vely The  transacti on   sta tus is c om po se d of   f ollow i ng ty pe:   -   Com plete tr ansacti on: t his  sh ows  the t ransac ti on  is  su cc essfu ll y c om pl et ed,     -   A borte tra nsa ct ion : t his  sho the  tra ns act ion i s a borted b y user /sy ste m ,   -   Re j ect ed  tra ns act io n:  this  sh ows  the  tra nsa ct ion   is  rej e ct ed  du to  w r ong  inf orm ation   entere (. i.e .   non - existe nt acc ount num ber ) d uri ng  t ran sact i on and   -   U ne xpect ed  e rror : t his is  du e  to un e xpect ed   scenari s uc a s server/ netw ork dow n.     Evaluation Warning : The document was created with Spire.PDF for Python.
                          IS S N :   2088 - 8708   In t J  Elec  &  C om En g,   V ol.  10 , No 3 J une  2020   32 16   -   3226   3224   It  is  seen  from   Table s   an 2,   MTDRSM   a chieves  high  num ber   of   tra nsa ct ion   pe seco nd   ( TPS as   c om par ed  to  MuTeB enc h.   I Fig ur e   the   throu ghput  pe rfor m ance  co ns ide rin dif fe ren w orke rs  without  SLA   c om plian ces  is  show n.   It  is  seen  from   gr ap th MTDRSM   perform better   than  Mu Te Be nch.     The  MT DRS i m pr ov e thr ough pu by  5.87%,  3.03%  an 2.6 3%   consi der i ng   10,  20  a nd   50  w ork e r   resp ect ively over  M uTeBe nc h.   A ave ra ge   thr oughput  i m pr ov em ent  of  3.8 4%  is  ac hieve by  MTDRSM   ov e M uTeBe nc h.  Sim i la rly in  Fi gure   the   thr oughput  perform ance  co nsi der in dif fer e nt  w orke with   SL com pliances  is  sh ow n.   It  is  seen  f ro m   gr a ph  the  MT DRS perform bette than  M uT eB ench   i te rm of   thr oughput  perform ance  cons iderin var ie worker.   Th MTDRSM   im pro ves  th r oughpu by  7.2 4% 7.4 and  7.1%   co nsi der in 10,  20  a nd   50  work e re sp ect iv el y,  ov e Mu TeB ench.  An  aver a ge  t hro ughput   i m pr ovem ent  of   7.25 is  ac hieve by  MTDRSM   over  MuTeB enc h.   I is  seen  fr om   Figure  a nd   Figure  that  prov isi on i ng   S LA  to  te na nt  induces  an   ov e rh ea in  t hro ughput  pe rfor m ance  of   M uTeBenc h,   w he re  us  MTDRSM  is e ff ic ie nt  wh e n p rovisio ning S L to  tena nt.       Table  1 .   T ra nsa ct ion  stat us w it ho ut  SL A   T ra n s a c ti o n   S ta t u s  w i t h o u t   SL A   N u m b er   o w o r k er   C o m p l e te d  T ra n s ac t i o n   A b o r t e d   Tr a n s ac t i o n   R e j e ct e d   T ra n s a ct io n   U n e x p e c te d   er r o r   M u T eB e n c h   M TD R SM   M u T eB e n c h   M TD R SM   M u T eB e n c h   M TD R SM   M u T eB e n c h   M TD R SM   10   6711   6849   10   7   74911   79901   31   5   20   13203   13288   11   8   149122   154134   59   45   50   10507   12873   9   7   148255   151225   116   102       Table  2.   T ra nsa ct ion  stat us w it SL A   T ra n s a c ti o n   S ta t u s  w i t h  S LA   N u m b er   o w o r k er   C o m p l e te d  T ra n s ac t i o n   A b o r t e d   Tr a n s ac t i o n   R e j e ct e d  T ra n s a ct io n   U n e x p e c te d   er r o r   M u T eB e n c h   M TD R SM   M u T eB e n c h   M TD R SM   M u T eB e n c h   M TD R SM   M u T eB e n c h   M TD R SM   10   10799   12894   12   8   144222   154264   37   21   20   10906   13108   10   8   142508   152592   64   50   50   11062   12960   8   8   140554   150260   39   27             Figure  7 .   Th r ough pu t ac hie ve d for  var ie d work e without S LA     Figure  8.  Th r ough pu t ac hie ve d for  var ie d work e with S LA       5.   CONCL US I O N   Mult it enan da ta base  m anag e m ent  on  cl ou en vir on m ent  has  at ta ine huge   intere st  a m on var io us   orga nizat ion s du t scal abili ty   and   cost  benefit s.  The  wide   su r vey  carrie ou s hows  the  existi ng   sc he duli ng   te chn iq ue  s uff ers  due  to  N P - Hard  pro blem Ther e fore   an  eff ic ie nt  sche duli ng   a nd  load  balancin m ec han ism   is  require f or  dynam ic   resour ce   al locat io n.  He re  we   pre sented   que ry  cl assifi cat ion   and  w orke s ort ing  te chn iq ue  f or   dynam ic   reso urce  al locat io and  ha ndli ng  idle  insta nce  ef fici ently Ex pe rim ents  are  c onduct e to  evaluate  th per f orm ance  of   MTDR S in  te r m of   la te ncy  and  throu ghput  w it and   without  SLA  com pliances.  The  ex pe rim en ts  are  cond ucted  co ns ide rin var ie te nan t,  worker  an w orkl oad   s uch   as  TPCC   and   YCSB  be nch m ark s.  The   exp e rim ental   ou tc om sh ow the  MTDRS  reduces  a ver a ge   la te ncy  of   27. 44%   Evaluation Warning : The document was created with Spire.PDF for Python.
In t J  Elec  &  C om En g     IS S N: 20 88 - 8708       An  ef fi ci ent res ou r ce s ha ri ng t echn i qu e  for   m ulti - te nant  da t abas es   ( Pallav i G .   B . )   3225   and   28. 2%  over  Mute   Be nc with out  an with  SL c om pl ia nce  res pe ct ively The  MTDRSM   im pro ves  aver a ge  th r oughput  by  3.84%   and   7.2 5%  over  Mute   Be nc without  an with  SL c ompli ance  re sp ect ively The  ov e rall   res ult   achieve s hows   that  w he SLA   is  giv e t te na nt  the re  incu a ove rh e ad  f or  Mute   B ench  m od el as  r esult  af fect  th pe rfor m ance  of  th rou ghpu and  in duce   la te ncy  f or  te nan t.   T his  s hows     the  eff ic ie ncy   of   ha nd li ng   idle  instance  by  MTDRSM   m od el The  ov e rall   resu lt   achieve sho ws  that    the  MTDRSM   can  pro visio SLA   wit hout  incu rr i ng   la te nc to  te nan ts  an pe rfor m sign ific antly   bette tha Mute   Be nc h.   P rovisio ning  sec ur it to  databa se  acce ss  in  m ulti - te nan cl oud  e nv ir onm ent  is  crit ic al   factor   i increasin wi de   adoption.  T he  f utu re  wor w ou l co ns i der   prov isi on i ng   sec ur it to  m ulti - te nan cl oud    SaaS e nv i ronm ent.       ACKN OWLE DGE MENTS   The  a uthors  would  li ke  t ackno wled ge   and   t hank  T echn ic al   E du c at ion   Q ualit Im pr ov em ent   Pr og ram  [ TEQ IP ]  P hase  3, BM S Co ll ege  of  En gin eeri ng , B asava nagu di , B ang al or e .       REFERE NCE S   [1]   B.   P.  Rim al   and   E.   Choi ,   servic e - or ie nt ed  ta x onom ic al   spec tr um ,   cl oud y   chall enge and  oppor tuni ties  of  cl oud   computing,   in   I nte rnational   Jou rnal  of  Comm un ic ati on   Syst ems ,   vol.   25 ,   no .   6 ,   pp .   796 819 ,   Jun.   2012.   [2]   I.   Fos te r,   Y.  Zh ao,   I .   Raicu,   and   S.  Lu,   Cloud  c om puti ng  and  gr id  computing  36 0 - degr ee   compar ed, ”  2008  Gr id  Computing  En vir onments  Workshop ,   Aus ti n,   TX ,   pp.   1 - 10 ,   2008 .   [3]   Stefa Aulba ch,  Torste Grus t,  Dea Jac obs,  Alfons  Kem per ,   and  J an  Rit ti n ge r,   Multi - t enant  databa ses  fo r   software   as  se r vic e Schema - m appi ng  te chn i ques,   In  SIGM OD   '08:  Proce e dings  of  the   20 08  ACM  SIGMO D   int ernati ona l co nfe renc on   Man ageme nt  o da ta ,   p p.   1195 120 6,   Jun.   2008.   [4]     Andrea Gobel,  MuTeBe nch:   Turni ng  OLTP - Benc int Multi - T ena n c y   Da ta base   Ben chma rk  Fram ework,     The  fi f th  In te rna ti onal  Con fe ren c on  C loud  Com puti ng,   GRIDs   a nd  Vi rtual izati on pp .   84 - 47 ,   201 4   [5]     Li   hen g ,   Yang  dan,   and  Zh ang  xia ohong,   Surve y   on  m ult i - te n a nt  dat arc hi tect ure   for  sa as,   IJ CSI  Inte rnationa l   Journal  of   Computer  Sc ie nc Iss u es v ol .   9 ,   issue   6,   no .   3 ,   Nov .   20 12.   [6]   C or - Paul  Beze m er,   And y   Zai dm an,   Multi - T ena nt  Sa aS  Applicati ons Ma i nte nan ce   Dre a m   or  Nightmare ? , ”  IWP SE - E VOL  '10:  Proce ed ings  of  the   Jo int   ERCIM  Workshop  on  Soft ware  Evol uti on  ( EV OL )   and  Inte rnation al  Workshop on  Pr inc iples of   Soft w are  Ev o lut ion   ( IWP SE) ,   pp.   88 - 9 2,   Sep .   2010 .   [7]   Archa na  Bhask ar  and   Rajee v   R anj an,   Opti m iz ed  m emory   m odel   fo hadoop  m ap  red uce   fra m ework,”     in  Int ernati onal   Journal  of   Elec t rical   and   Computer  Eng ine ering   ( IJE CE) v ol.   9,   n o.   5 ,   pp .   4396 - 4407,   Oct .   201 9.   [8]   H.  Ballani,  P.   Costa,   T.  Kara g ia nnis,   and   A.  Rows tron,   Towa rds  pre dictab le   d at a ce n te n e tworks,”   in   AC M   SIGCO MM  Computer  Comm unication Re v ie w ,   pp .   242 253 ,   Aug.   2011 .   [9]   Toa Phan   Thanh,  Lo Ng u y en   The,  Said   E lna f far ,   Cuong   Nguy en   Doan,  Huu  Dang  Quoc,  An  Eff e ct iv PS O - inspire Alg ori t hm   for  W orkflow  Schedul ing,”   Inte rnationa J ournal  of  Elec tric al  and  Compu te Engi n ee ring   ( IJE CE) v ol.   8,   n o.   5,   pp .   3852 - 3859,   Oct .   2018 .   [10]   B.   P.  Rim al   an M.  Maie r,   W orkflow  Schedul ing  in  Multi - Te nan Cloud  Com puti ng  Envi r onm ent s,”   in  IE EE  Tr ansacti ons on Paralle l   and  Dis tribut ed   Syste ms ,   vol .   28 ,   no .   1 ,   p p.   290 - 304 ,   Jan .   2017.   [11]   F.  S.  Hs ie and  J.  B.   Li n,   d y namic  sche m for  sche duli ng  co m ple ta sks   in  m anuf ac turi ng  s y stems   base on  col l abor ation  of   age nts, ”  in  App lied  Int el l ige n ce ,   vo l.   41 ,   no .   2 ,   pp .   366 382 ,   Sep .   2014.   [12]   J. - C.   L iou  and  M.  A.  Pa li s,   An  eff icien t ask  cl ust eri ng   h eu risti c   for  sch ed uli ng  DA Gs   on  m ult iprocess ors,”    in  Proc . ,   R esource   Manag eme nt ,   Symp.  o f   Parallel  and   Distrib.   P roce ss ing ,   pp .   1 52 156,   1996 .   [13]   R.   Bajaj  and   D.  P.  Agrawal ,   Im proving  sc hedul ing  of  ta s ks  in  hetero gene ous  envi ro nm ent , ”  in  IEEE   Tr ansacti o ns on Paralle l   and  Dis tribut ed   Syste ms ,   vol .   15 ,   no .   2 ,   p p.   107 - 118 ,   Feb .   2004.   [14]   H.  Topc uog lu,  S.  Hari r i,  M.  Y.   W u,   Perform anc e - eff ective  and   low - complexi t y   ta sk  sche du li ng  for  heteroge n eo u s   computing,   in   I EE E   Tr ansacti o ns on  Parallel   a nd  Distribute d   S yste ms ,   vo l .   13 ,   no.   3 ,   pp .   260 - 2 74,   Mar .   2002 .   [15]   H.  M.  Fard,   R .   Pro dan,   J.J. D.   Bar rionue vo,   and  T .   Fahringe r,  m ult i - objecti v a pproa ch  for  wor kflow  sche duli n in  heteroge n eou envi ronm ent s, ”  2012  12th   IE EE /A CM   Int ernati onal  S ymposium  on  Cluste r,   Cloud  a nd  Gr id   Computing  ( cc grid 2 012) ,   Ott awa ,   ON ,   pp .   300 - 30 9 ,   2012 .   [16]   D.  Shue,   M.  J.   Free dm an,   and  A.  Shaikh,  Perform anc isol ati on  and  f ai rn ess  for  m ult i - te n an c loud  storag e,”  OSD I'12:  Proce edi ngs  of  the   10th  USENIX  c onfe renc on  Operating  Syste m Design  and  I mpleme ntation   pp.   349 362 ,   Oc t.   2012 .   [17]   S.  Pande y ,   L.  W u,   S.  Guru,  and  R.   Bu yy a ,   pa rti cle  sw arm  optim iz at ion - b ase heur isti for  sch edul ing  workflo appl i ca t ions  in  cl oud  computing  envi ronm ent s,”   2010  24th  IEE Inte rnat ional   Confe ren ce   on  Adv anc e d   Information  Ne t working  and  Ap pli cations ,   Per th, WA ,   pp.   400 - 40 7,   2010 .   [18]   M.  A.  Rodrigu e and   R.   Bu yy a ,   Dea dli n b ase resourc pro visioni ngand  sc hedul ing  al gor ithm   for  scie nt ific   workflows   on  clouds , ”  in   IE EE  Tr ansacti ons on Cloud Computi n g ,   vol .   2 ,   no .   2 ,   p p.   222 - 235 ,   201 4.   [19]   Z.   W u,   X.  L iu,   Z .   Ni,   D.  Yuan ,   a nd  Y.  Yang,   A m ark et - orie n te hie rar chi c al   sch e duli ng  strateg y   i ncl oud  workflo s y stems , ”  The   Jo urnal  of  Sup erc o mputing ,   vo l. 63, no. 1, pp. 256 2 93,   Jan .   2013 .   [20]   H. M.  Fard,   R.   Prodan,   and  T.   Fahringe r,   trut hful  d y n amic  workflow  sche duli ng  m ec hani s m   for  co m m erc ia m ult ic loud  env i ronm ent s,”   in  IEE Tr ansactions   on  Parall el   and  Distribute Syste ms ,   vo l.   24,   no.   6 ,     pp.   1203 - 1212 ,   J un.   2013 .   Evaluation Warning : The document was created with Spire.PDF for Python.