Int ern at i onal  Journ al of Ele ctrical  an d  Co mput er  En gin eeri ng   (IJ E C E)   Vo l.   11 ,  No.   3 June   2021,  pp. 2 414~ 2422   IS S N: 20 88 - 87 08 DOI: 10 .11 591/ ijece . v11 i 3 . pp2414 - 24 22          2414       Journ al h om e page http: // ij ece.i aesc or e.c om   Hybrid   f eatur s electi on  m ethod b ase on   p articl swarm  optimiz ation and  a dapti ve local  s ea rc m eth od       Ma le k  A lz aq e ba h 1 ,  S ana  Jaw arneh 2 , R am i Mus taf a A .   Moham ma d 3 ,   Mutase m K . Alsm adi 4   Ibra him  A l - m arashdeh 5 , E man   A. E.  Ahm ed 6 , Nas hat  Alref ai 7 ,   F aha d A.  A lgh amdi 8   1,6,7 Depa rtment   o Mathe m atics,   Coll ege of   Scie n ce ,   Im am Abdulr ahman  Bin  Fa isa Univer si t y ,   Da m m a m ,   Saudi  A rab ia   1,6,7 Basic   and  Ap pli ed   Scie n ti fi c Resea rch   Cen te r ,   Im am Abdulrahm an  Bin  Faisa l U nive rsit y ,   Dam m am,  Saudi  Ara bia   2 Com pute Scie n ce   Dep a rtment ,   Com m unit y   Coll ege   Dam m am,  I m am Abdulra hma Bin   Faisal Un ive rsit y ,     Dam m am,  Saudi  Arabi a   3 Com pute Infor m at ion  S y st ems   Depa rtment, College of  Com puter Sci en ce a nd   Inf orm at ion  T ec hn olog y ,     Im am Abdulra hm an  Bin  Faisa l U nive rsit y ,   Dam m am,  Saudi  Ara bia   4,5,8 Depa rtment   o MIS ,   Coll ege o Applie d   Studies   and  Com m unit y   S erv ice, Im am Abdulra hm an  B in  Faisa Unive r sit y ,   Dam m am,  Saudi  Arabi a       Art ic le  In f o     ABSTR A CT    Art ic le  history:   Re cei ved   Sep   8 , 2 0 20   Re vised  Sep   2 1 ,   20 20   Accepte Oct   6 , 2 0 20       Mac hine   le a r nin has  bee exp a nsively   ex amine with  data  class ifi cation  as   the   m ost  popula rl y   rese arc hed   subjec t.   The   a cc ura te n ess  of  pre diction  i s   impact ed   b y   th e   data  provid ed  t the   class ifi cat ion  al gor it hm .   Mea nwhile,   uti lizing  l arg e   amount  of  da ta   m a y   in cur   cos ts  espe cially   in  d ata  colle ct ion   and  pre proc essing.   Studie on  fea tur select io were   m ai nl y   to  esta bl ish   te chn ique th at   ca d ec re ase   th num ber   of  u tilized  fe at ur es  (a tt ributes)  in   cl assifi ca t ion,   als using  dat a   th at   gen erate   accu rat e   p red i ct ion   i impo rta nt.  Henc e,  p art i cle  sw arm  opti m iz ation  (PS O)  algorith m   is  suggested  in  the  cur ren art i cle  f or  sele c ti ng  th ide a set  of  f ea t ure s.  PS al go ri thm  show ed   to  be  superior   i diffe ren dom ai ns  in  expl or in the   sea r ch  spac and  lo cal   sea rch   al gor it h m are   good  i expl oit ing  th sea rch   reg ion s.  Thus,   we  propose  the  h ybridi z ed  PS al gorit hm   wi th   an  ada pt ive  l oca l   sea r ch  te chn ique   which   works   base on  the   cur r ent   PS sea rch   state  a nd  used  for   ac c ept ing   the  c a ndida t solut ion.  Having  thi co m bina ti on  b al an ce t h lo cal   int ensifica ti on  a well   as  the   glo bal   dive rsif ication  of  the   sea rch ing  proc ess.   Henc e,  the   sugg este a lgori thm  surpass es  the   origi nal   PS al go rit hm   and   othe r com par able  appr o ac h es,   in te rm s of  per form anc e .   Ke yw or d s :   Ad a ptive l ocal  s earch   m et ho F eat ur e   s el ect ion   Partic le   s wa rm   o pti m iz at ion   a lgorit hm   This   is an  open   acc ess arti cl e   un der  the  CC  B Y - SA   l ic ense .     Corres pond in Aut h or :   Ma le Alza qebah   Ba sic  an d A pp li ed  Scie ntific   Re s earch  Cent er   Im a m  A bd ulra hm an  Bi Fais al  U ni ver sit y   P.O. Bo x 1 982, Dam m a m , S a ud A rab ia   Em a il m aafeh ai d@ ia u.ed u. s a       NOME N CLA TURE   Acron y m s   PSO       :   Parti cle  Sw arm  Optimiza ti o n   BCO        :   bee   col on y   optim iz at ion   SSA       :   slap  sw arm a lgo rit hm   LAHC   :   La t a ccept anc e   hil l - c li m bing   FFA       :   Firefly   al gori th m   ALS         :   ada pt ive   local  s e arc h   FS            :   fea tur se le c ti on   GA             :   Gene tic  al gori th m   CT           :   computed  tomog rap h y   MFO     :   Moth - Flam optim iz at ion   TS          :   Ta bu  se arc h   ACO     :   ant   col on y   opti m iz a ti o n   BP SO   :   bina r y   p art i cle  s warm   opti m iz ati on   NF             :   num ber   of  sel ec t ed  fe at ur es     Evaluation Warning : The document was created with Spire.PDF for Python.
In t J  Elec  &  C om En g     IS S N: 20 88 - 8708       Hyb ri fe atu re  selec ti on   meth od base d o n part ic le  swarm   opti miza ti on  an d ada ptive   ...   ( Malek Al z aq e bah)   2415   1.   INTROD U CTION     Ma chine  le ar ni ng   has  bec om e   m or pr om ine nt  rece ntly   in  m any  researc fiel ds a nd  thi is  due  to   the  fast   data  gro wth  an t he  need  to   m eani ngf ully   us t he m M achine  le arn i ng  co nce rns  disc ov e rin us ef ul   inf or m at ion   from   hu ge   dat us in s om m achine  le arn i ng   te c hniq ues  incl ud i ng   an om aly  detect ion cl assifi cat ion and   cl us te rin [ 1 2 ] Acc ording ly dim ensio nalit can  i m p ede  t he  m achine  le arn in proc ess  as  it   incur s   hi gh  c om pu ta ti on al   c os t.  Dim ensional it is  m ajo r   issue  i m achine  le ar ning,   es pecial ly   con ce r ning   dataset s.  dat aset   com pr ise set   of  exam ples  re pr e senti ng  inf orm ation  on  par ti cular   case  in  feature   form ,   and   dataset   c an  ha ve  s ubst antia dim ensi on al it y,  asi de   from   carrying   feat ur es  t ha are  irrele va nt  an redu nd a nt,  an no ise   of  high   le vel.  Su ch  a   huge  num ber   of   featu res  c ou l not  be  ha nd le by  trad it ion al   m achine  le arn i ng   m et ho ds.  F eat ur sel ect io is  there f or vital   as  pr e proces sin phas as  it   decr eas es  data   dim ension al it w hile  al so   re m ov ing   duplica ti ng   a nd  use le ss  feat ur es   in   the  dataset   [ 2 - 4 ] .   Feat ure  se le ct ion  process  ai m s     t obta in  the  optim a set  of   us e fu featu res  while   m ai ntaining  good   accu rate ness  in  re pr ese nting  the  init ia featur es  of  the  dataset In   t his  re gard,  cl assifi ca ti on   in vo l ves  de te rm ining   the   cl ass  value  of  eac sam ple f ro m  the av ai la ble cla s pool   [ 5 6 ] .   Feat ur sel ect ion   te ch niques  are  div i ded   int three  cat eg ori es  accord i ng   t the  str at egy  of   sel ect io as  fo ll ows:  F il te r,   wr a pper and   em bed de t echn i qu e s Fil te ap proache s   do   no t   re quire  su bse que nt  le arn i ng  al gorithm [ 7 8 ] w hile  wr a pper  te c hn i qu es   require  the  use   of   le ar ning   al gorithm   [ 9 10 ] .   When  c om par ed   with  filt er  appr oach,  wr a pper  appr oach   poss ess   m or com pu ta ti on al   costs  asi de  from   sh ow in an  over - f it ti ng   risk.   Howe ver,   in   e m bed de te chn iq ues th featur es  sel e ct ion   m et ho is  e m bed de w it hin   the  m od el   (s)   trai ning  pr oces s   [ 2 4 11 ] f ollow e by  the  ge ner at io of  an   ideal   gro up  of  featu re s   th rou gh  the  op ti m izati on  of  the  obj e ct iv f un ct io n.  Am ong  t he  t hr ee   m entioned  ty pe of  featu re  se le ct ion wr a pp er  m et ho ds  are   ch os e in this  pa per .   Me ta heu risti cs   op ti m iz a ti on   al gorithm hav sh o w good  perform ance  i the  searc f or  an  opti m al  so luti on.  Also ,   these  al gorith m s   are  easy   to  i m ple m ent  and   can  so lve  wide  ra ng of   prob le m [ 12 ] A m ong  these  m et aheu risti cs  al go rith m s   are  al gorithm that  are  base on  s warm   intel li gen ce.  Sw arm   intel lig enc e   al gorithm stud the  beh a vior  of  c ollec ti on   of  a gen ts  i sel f - organ iz e so ci et ie s,  i.e.  be es,  ants bir ds,  an m oth s   [ 13 - 17 ] .   Techn i qu es  ba sed  on  swa r m   intelli gen ce   hav bee wi dely   us ed  as  wr ap pe m e tho f or   featur e   sel ect ion  [ 18 ] f or  i ns ta nce bees  al gorithm   [ 19 ] ant   col on op ti m iz ation   ( ACO )   [ 20 ] ,   butt erf ly   op ti m iz ation  al gorithm   [ 21 ]   a nd  m oth  opti m iz at ion  alg or it hm   [ 22 ] .   Partic le   swa rm   opti m iz at ion   ( PSO)  was   ad vi sed  i Kenne dy   an E berha rt  [ 23 ] S uch  an   al gorithm   reli es  on   the  be hav i or   of  so ci al   or ga nism t hat  li ve  in  gr oups,  as  exem plifie by  bir ds   and   fis h.   PS m i m ic the  intera ct ion  bet ween  m e m ber in  in f orm at ion   sh a rin g,  a nd  the   ap pl ic at ion   of  PS ca be   obse rv e i var i ou s   opti m i zat ion   do m ai ns   an al s to ge ther  with  othe al gorithm s.  To  c om bin th ei ad va ntages,  filt er - wr a pper  gro unded   upon  t he  P SO   featur e   sel ect ion   te ch nique   wa intr oduc ed   in  [ 24 ] T he   filt ering   m easur i s   app li ed   in  e nc od i ng  the  l ocati on   of  eve ry  pa rtic le w hile  the  cl assifi cat io acc ur acy   is  ut il iz ed  fo r   the  f it ness  pur po se A ca be   sho wn   f rom   the  exp e rim ents,  the   sug ge ste d   m et ho w as   m arg inly   bette than   bin a ry  PSO - base filt er ing   m et ho d.  O th oth e ha nd,  t he  s uggeste d   m et ho was  ye to  be  c om par ed  wit any  w rapper   al gorithm   and   com par ed  to  the  filt er  al go r it h m the  wr app e al gorithm   is  gen erall su pe rio in  te rm s   of  cl assifi cat ion   pe rfor m ance.    In  deali ng  with  th e   FS   pr ob l e m Ibrah im   et   al.   [ 25 ]   s ugge ste d   hybr i optim iz at ion   te chn i qu e   that   com pr ise com bin at ion   of   sla swa rm   al go rit hm   (S SA a nd  PS O.  This  com bin e m et ho was   cal le SSAPS O.   T he   auth ors  r ep ort ed  t hat  this   m e tho im pr ov e t he  e ff e ct i ven ess  of  t he  e xp l oitat ion   a nd  exp l or at io n p ha ses  [ 25 ] .   PSO   a nd  fire fl (F F)   te c hn i ques   wer hybri dized  a nd  cal le PS O - FF  i [ 26 ]   f or   th FS   pro blem   in  the  exam inatio of  c hildho od ' no rm al   " te ratoid/r ha bdoi d"  tum or   ( A T/R T)  in  br ai MR im ages  an "hem och r om ato sis"  in  com pu te tom og r aph (CT im ages   of   li ve r.   Me an wh il e,   in  [ 27 ] the   auth or s   dem on strat ed   the  a ppli cat ion   of  hy br i bio - insp i red  te ch ni qu e   to   the   FS   process T his  pro po se m et ho is   gro unde upon   2   swa rm   intel l igence   te ch niques   nam el PSO   a nd  AC O.  F or  the  FS  pro b l e m   al so ta bu   s earch  (TS)  was  c ombine with  bina ry  par ti cl sw arm   op tim iz a tio (BPS O)   i [ 2 8 ] I this  st ud y,  BP SO   functi ons   as  local   opti m iz er,  w hen e ve TS   is  exe cut ed  f or  par ti c ul ar  ge ner at i on   i ca ncer  cl assifi cat ion ,   duri ng  gen e   expressi on.  S om eho w the  use   of  this  a ppr oa ch  is  based  on  the  sm allest   nu m ber   of   feat ur es   w hich  m eans  that   i m a no be  represe ntati ve  of   the  e ntire  da ta set As  su c h,   the  pro blem   of   the  s olu ti on  bei ng   st uck   i local   po i nts  m ay   oc cur.  Re le van tl in  [ 29 ] the   app li cat ion   of  hybri m et hod  com pr isi ng   ACO bee  colo ny   op ti m iz atio ( BC O) genet ic   al gorithm   (G A )   an f uzzy  C - m eans  was  de m on strat ed,   wi th  the  ai m   of   featur es   sel ect ion   f r om   the m a m m og ram   i m age s .   In  the  c urre nt  researc h the  P SO   te ch nique   is  com bin ed  w it an  ada ptive   local   sear ch  a ppr oach   to   qu ic kly  at ta in  su it able  s olu ti ons  for  th probl e m   by  com bin ing   t he  a dv a nt age  of  the  e xplorati on  pro vide by   PSO   al gorith m   and   the  e xploit at ion   a bili ty   by  the  pro vid e by  the  l ocal  searc m et hod P SO   al gorithm   ens ur es   the  di ve rsity   of  the   sol ution s   w hile  t he  a da ptive  lo cal   searc m eth od  e xploit t he   so l utions  to   ob ta in   Evaluation Warning : The document was created with Spire.PDF for Python.
                          IS S N :   2088 - 8708   In t J  Elec  &  C om En g,   V ol.  11 , No 3 J une  2021 :   24 14  -   2422   2416   the  possi ble  id eal   so luti on .   T his  c om bin at ion   inc reases   the   flexi bili ty   of   t he  P SO  al gorit hm   to  en han ce   the   capab il it to  e xp l oit  the  s olu t ion i sea rch i ng   sp ace   w hile  the  poss i ble  ideal   so l ution  c an  be  quic kly  fou nd.  The  pr opos e adap ti ve  l oca search ing   m et hod  is  reli es   on   the  la te   a ccepta nce  hill - cl i m bin al gor it h m     [ 30 31 ] a nd  t his  m et ho is  f ree  from   par a m et er  tun i ng,  wh e re by  the  par am et ers  are  t un e thr ough  the  searc of   PS al gorit hm   wh ic m akes  the  al go rith m   m or fixab le PSO   al gorit hm   send the  so luti on  to  be  e xp l oited  tog et he wit the  cu rr e nt  it erati on   an the  nu m ber   of  trie us e to  im pr ov t he  so l utio ns Am on the   m os sign ific a nt  feat ur es  of  the  pro po s ed  al gorith m   is  that  it   ta kes  ad van ta ge  of  po pu la ti on - ba sed  al gorit hms  that  pr ese r ve  the   di ver sit of  the   so l ution s   a nd  local   sea rch  a lgorit hm that  exp l oit  the  s ol ution  ve ry  fast.  T he   resu lt gen e rat ed  by  t he  sug ge st ed   al gorith m   are  con t rasted   agai ns t   the  tradit ion al   P S al gorithm   and   with   oth e c on te m po ra ry   ap proac he s.   The  str uctu re  of   the   a rtic le   i as  fo ll ows:   S ect ion   2   detai ls   the  sta nd a rd   pa rtic le   swar m   o ptim iz ation  (P S O),  f ollo we by  s ect io that  exam ines  and  el ab or at es   the  s uggested   al gorithm   na m el par ti cl s war m   op ti m iz ation   w it adap ti ve  l oc al   search  m eth od T he n,   s e ct ion   rev ie w the  em pirical   resu lt s,  a nd   s e ct ion   rev ie ws  the  stu dy conclu sio ns al ong wit h sev eral su ggest io ns t o be c onside red in  fu t ur e   stud ie s .       2.   PAR TI CLE S WA RM OPTI MISATIO N A LGORIT HM   The  PS al gorithm   is   created   by  Eberha rt  and   Ke nn e dy   in  [ 23 ] an this  al gorithm   m i m ic the  com m un ic at ion   be hav i or   of  gr oup  of   age nts,   f or  in sta nc e,  bir d s   floc ki ng  an fis s choolin g.  I th PS O   al gorithm gro up  of  age nts   de note the   s olu ti on s   ( par ti cl es)  of  the  pr ob le m   and  the   swa rm   rep re s ents  popula ti on   of s olu ti ons.     PSO   al gorithm   be gin by  ge ne rati ng   ra ndom  so luti ons  f or   e ach  par ti cl an assi gn i ng   t he m   an  in it ia velocit y. Pa rtic le s trav el   within the  searc hing  sp ace i n order   to searc h for th e ideal  so l utio n. He re,  t he  loca ti on  of   e ver par ti c le   is  updated   ba sed  on   it know le dg e   an it ad j oi ning  pa r ti cl es.  As  the  par ti cl es  are  m ov i ng,   their  curre nt  po sit io i   is  sy m bo li zed  by   vector   x i   =   ( x i 1 ,   x i 2 ,   x iD ),   wh e re by   D   denotes  the   search  sp ace’ s   dim ens ion al it y.  Me an wh il e,  thei ve locit i   is  sy m bo li zed  by   vi   =   (v i1 ,   v i2 , …, v iD ) pr e defi ne m axi m u m   velo ci ty   con fi nes  t he  velocit of  t he  par ti cl es  whereb y   v m ax   a nd     [  ,  ] F ur t her ,   the   best  past  posit ion   of   pa rtic le   is  do cum ented   as  the  per s on a best  and   it   is  sy m bo li zed  as  pb e st Acc ording ly ,   the  best  locat i on   ac hieve by   the  swar m   is   cal le “glo bal  best”  or   gbes t” PS searc h es  and   fin ds   th ideal   so luti on  by  updating t he pa rtic le s u sin ( 1 )   a nd  ( 2 )   is  us ed  to  cal culat e t he m ov ing   velocit y as f ollow  [ 23 ] :     x id t + 1 = x id t + v id t + 1   (1)     v id t + 1 = w ×   v id t + c 1 × r 1i × ( p id     x id t ) +   c 2 × r 2i × ( p gd     x id t )   (2 )     In  w hich ,   t   sy m bo li zes  the  t th   it erati on   in   the  e voluti on ary  pr ocess;    sym bo li zes  the  d th   dim ens ion   within   the   sea rch i ng  s pace;    s i gnifie t he   wei ght  of  ine rtia c a nd   c2   deno te   the   acce le rati on  con sta nts;  r 1i   a nd   r 2i   are  r an dom   values  dis per se ho m ogeneously   in  [ 0,  1];   and   p id   a nd   p gd   sym bo li ze  the   el e m ents o “pbest”   a nd  gbe st”   in t he  d th   di m ension. F i gur e 1   de picts   the  ps e udo - c ode  of PS O.           Figure  1 .   Parti cl e sw arm  o pti m iz at io (P S O a lg or it hm ’s  pse udo - co de   Evaluation Warning : The document was created with Spire.PDF for Python.
In t J  Elec  &  C om En g     IS S N: 20 88 - 8708       Hyb ri fe atu re  selec ti on   meth od base d o n part ic le  swarm   opti miza ti on  an d ada ptive   ...   ( Malek Al z aq e bah)   2417   3.   PROP OSE D PSO  ALGO R ITHM  WITH  ADAPTI VE L OCAL SE ARCH   3.1.   S olut i on   de pictio n   The  s olu ti on   of  feat ur e sel ec ti on   is  de picte as   vecto of  fe at ur e   ( nu m ber   of  featu r es  withi a   data  set ),   an the  co ntents  in  this  vector   a re  ei ther  or  1,   wh e re by  m e ans  unsel ect ed   featur an m eans   sel ect ed  featu r e.  PSO   al gorithm   chan ges  th values  in  th vector   t i m pro ve  cl assifi cat ion   accu racy this  stud us es  cl as sific at ion   acc uracy   as  an  obje ct ive  functi on   to  be  m axi m i zed.  Accor dingly the  cl assif ic at i on  al gorithm   us ed   in  the  pr e se nt  stud is  discuss e in  the  ens uing  sect io n.   T he  f ollo wing   fig ur s ho ws  the   represe ntati on   of  PS al gorithm   fo featu re   sel ect ion .   F or  dem on strat io pur poses,   sup po s that  we  ha ve  a   so luti on  f or   dataset   with  featur e s;  the   sel ect ed  featur es   are  first  an thir d,   an he nc e,  the  so luti on  will   be  [1,0,1 ,0 ] .     3.2.   A daptiv local se arch   The  local   sear chin m e tho wo r ks   reli es  on   “Lat acce ptance  hill - cl im bin g”  (LAH C)  [ 16 3 0 ] LAH al go rith m   wo r ks   base on   m e m or ( l ist with  le ng t ( L to  sa ve  the  ob j ect ive  va lues  of  the  sol utions   pro du ce during   t he  searc h.   The  acce ptanc of   a ny  ne c om ing   so luti on dep e nds  on   t he  assessm ent  of   th e   new   so l ution  with  the  la st  one  sa ved  wit hi the  li st  at   th L th   ste p.   The   worst  s olu ti on   is  acce pted  pr ov i ding  that  the  value  of   the  possible   so luti on  is  eq ual  to  or  bette r   than  the  value   within  the  li st  of   in de v   ( virtu a l   sta rting   of  the  li st).  v   is  com pu te by  di vid i ng   t he  c urren nu m ber   of   t he  it erati on I   by  the  le ngth  of   L   (e. g. ,   see  fig ur e   li ne 12) a nd  afte that  the   val ue   in  of  in de v   bec om es  t he  po s sible  s olu ti on.   Othe rw i se,  the   worse  s olu ti on   will   no be  a ccepte d.   I thi reg a rd,  the  ph ysi cal ”  li st  sta ys  sta ti c.  Ho we ve r,   it “v i rtual”  beg i nn i ng   v   is  dynam ic al l c om pu te as  div isi on   rem inde of   the  nu m ber   of   it erati ons  by  the  le ng th  of   li st   L (v=I  m od  L).   The  full  p se ud ocode  of lat e a ccepta nce  h il cl i m bin is  pr e sented  in Fi gur e 2   [ 30 ] .           Figure  2 .   The   ps e udo - c ode  of  l at a ccept anc h ill  c lim bin [ 30 ]       The  ps eu doco de  of  the  offere al gorithm   i de picte d   in  F igure  3.   I our  pro po s ed  al gorithm the   stoppin c ondi ti on   is  set   by  c ountin the  i dl ste ps   (idel ste ps or  the  m axi m u m   it erati on   num ber   is  at ta ined,   wh e re  t he  i dle  ste ps  is  inc re a sed  by  one  if   the  al gorithm   co uldn’t   f ur t he im pr ove  the   lo cal   best  s ol utio (P be st)  see   F ig ur li ne 7 .   The  a da ptive  l ocal  searc ( A LS)  is  pe rfor m ed  if  t he  rand om   nu m ber   be tween   and   is  great er  than  0.7 5.   T hi per ce ntage  was  ch os e ex per im ental ly   to  avo i ap plyi ng  the  local   sea rch   for   ever so l utio and   to  a void  lo ng   processi ng   t i m e.  An ot her   c onditi on   is  a ppli ed  to  ens ur that  ALS   is  ap pl ie wh e the  s olut ion   is  getti ng  stuck  in  l ocal  op ti m a,  or   w hen   no  f ur t her  i m pr ov em ent  is  po ssi ble,  a   wors e   so luti o is  acc epted  in  t his  s ta ge  to  sk i f r om   getti ng   stu ck  in  local   op t i m see  Figu r li ne#   15 Thr ee  par am et ers  sh ould  be  pro vid e to  L AH al gorithm the  i t erati on num ber   ( Nu m Of Ite ) ,   the  li st   siz ( L ),   a nd   the s olu ti on ( x i see  Fig ur e  3 li ne#   17   The  a dap ti ve  l ocal  searc m e thod  us e an  a dap ti ve  m et hod  to  set   these  pa ram et ers  as  fol lows First the  nu m ber   of  it erati on ( Num Of Ite is  cal c ulate by  m ult i plyi ng   the  of  idle  ste ps   nu m be ( idelst eps with  the   current  num ber   of   P SO   it erati on   ( P soIte r ).   This  is  to   provi de  m or it erati on in  local   s earch  at   the  en of   a   search   of  P SO   to  prom ote  m o re  it erati on  at   the  fi nal  sta ge Seco nd ly i te rm of   li st  siz e,  li st  from   the  PS O   Evaluation Warning : The document was created with Spire.PDF for Python.
                          IS S N :   2088 - 8708   In t J  Elec  &  C om En g,   V ol.  11 , No 3 J une  2021 :   24 14  -   2422   2418   al gorithm   ( PSO List i sim il ar  to  the  LA HC  li st)  that  keep the  obj ect ive  va lue  of   eac sol uti on   is  pro vi ded   to   local   search  se Figu re  li nes#   7&1 9 He nc e,  the  histor of   the  so l utions’  obj ect ive  va lues  will   be  saved   in   the  PS OList .   T his w il ben e fit from  the p rev i ou s  e xp e rim ent s and sa ve   i niti al iz at ion  tim e o f  the list  of  A LS.           Figure  3 .   The   ps e udo - c ode  of the  pro po se d PSO  alg or it hm  w it a da ptiv e   local  searc h       4.   EMPERI C AL EVA L U ATI ON   RES ULTS A N D DIS C US SI ON   This  pa rt  of   the  arti cl loo ks  into  the  eff e ct iveness  an stren gth   of  the   su ggest ed   PSO   with  th e   adap ti ve  l ocal  search  al gorith m   (P SO_ AL S).  Furthe r,   this  stud com par e PS O_AL w it oth er  popul at ion - base al gorith m s,  and   am on the  al go rithm co m par e in  t his  stu dy  inclu de  G A,   MF a nd  FFA.   Accor dingly the  te sts  car ried  ou in   thi stu dy  invol ved  the  us of   dataset s   com pr isi ng  var i ou s   c har act e risti cs.     The  fo ll owin Table  pres ents  the  ei gh t   dataset util iz ed  in  t his  stu dy.  T hese  c om m on ly   us ed   sta nd a rd  datas et wer e   obta i ned  f ro m   the  UCI  data  s our ce  [ 32 ] a nd  in   fact,  t hey  ha ve   bee us e in   seve ral   well - co nf i rm e stu dies.  Among  the  pri m ary  at tribu te of   these  dataset are  as  fo ll ows:   nu m ber   of   at t rib utes  (f eat ures ),   num ber o e xam ples ( I ns ta nces), t he nu m ber   of possible  cl ass   va lues . Ta ble  1 shows  the  deta il s.   Fo r   the   purpos of  t his  work ,   the  i ns ta nces   i the   dataset s   we re  s plit te into  t wo  gr oups  of  te sti ng   and   trai ni ng.  I sp eci fic,  80 of   the  instances  we re  util iz ed  in  trai ning wh il the  othe 20%  wer use in   Evaluation Warning : The document was created with Spire.PDF for Python.
In t J  Elec  &  C om En g     IS S N: 20 88 - 8708       Hyb ri fe atu re  selec ti on   meth od base d o n part ic le  swarm   opti miza ti on  an d ada ptive   ...   ( Malek Al z aq e bah)   2419   te sti ng The  use   of   this  div i sion   wa pro pose in  Fr ie dm an  et   al.   [ 33 ] The  r uns  and   e xp e rim ents  wer perform ed  us ing   syst e m   w it the  fo ll owi ng   s pecifica ti ons:  In te CPU  i5 - 5200U  2.2   GH a nd   R AM  of     8.0  GB T he  pa ram et er  values  of  the  s ugges te al gorithm   are  de picte i Table  2.   Accord i ng ly the se  value s   hav e   been  ide ntifie base on  the   res ults  ob ta ine f ro m   10  war m ing   up  e xp e rim ent al   runs a nd  as   can   be   ob s er ved, Ta bl e 2   show bette set ti ngs  of  t he  algorit hm ’s  pa ram et ers,  w hi ch gene rate  bette accu racy.       Table  1 .   T he  e m plo ye datas et s   Dataset na m e   Featu res   Ins tan ces   Clas s   Ger m an   20   1000   2   W BC   10   699   2   Sp ectF   44   267   2   So n ar   60   208   2   Ion o sp h ere   34   351   2   Hear t   13   270   2   W DBC   31   569   2   Parkin so n s   23   197   2       Table  2 .   B et te r  sett ing of the   al gorithm ’s  para m et ers   Para m eter   Valu e   m o v e  r ate (w1)   0 .5   p o p u latio n  size   20   Max id le step s   50   Max n u m b er  o f  I te ration s   200   Li m it   search  rang e  ( v m ax )   4       Table  disp la ys  the  nu m ber   of   sel ect ed  fea tures  ( NF),  the   best - at ta ined  accuracy  ( AC C)  util iz ed  in  the  com par iso betwee PS O_ALS  al go rithm   and   oth er  s ta te of   the  art  al gorithm s   na m el GA MF O,   FF A,  and   PS O.   A ve rag Accuracy   res ults  of  G A,  MFO,  FF A,   a nd   PSO   we re  com par ed  wit tho se  of   P SO_AL S .   The  res ults  in  Table  dem on strat the  s uperior it of   t he  PSO_ ALS   al gorithm   wh en  c on t ras t ed   with   oth er   te chn iq ues  in  t erm s o at ta ine d   acc ur acy   with  75%, a nd c om par able (sam e accu racy)  with   12.5%.    Also G fail e to  ob ta in  superi or   acc ur ac resu lt   in  co m par ison   with   MFO  an P S al gorithm s   wh ic obta in  sa m Accu rac resu lt   for  WD BC   dataset Table  al so   s hows  that  the  perform ance  of   PS O - ALS   al gorit hm   su per se des  oth e al gorith m s   wh en  it   com es  to  the  nu m ber   of   feat ur es  j ust   in  dataset s.  Howe ver, MF al go rithm  attains th e  b est   outc om es in 4 dat aset s .       Table  3 .   C om par iso n of t he b est   a ccur a cy  o f  GA,  MF O, FF A,   PS a nd PSO_ ALS   Dataset   GA   MFO   FFA   PSO   PSO_ ALS   NF   ACC   Av g - ACC   NF   ACC   Av g - ACC   NF   A CC   Av g - ACC   NF   ACC   Av g - ACC   NF   ACC   Av g - ACC   Ger m an   11   7 8 .00   7 7 .26   12   7 8 .63   7 7 .66   8   7 7 .88   7 7 .03   13   7 8 .38   7 7 .88   15   8 1 .50   7 9 .87   Hear t   6   8 8 .03   8 4 .81   5   8 8 .42   8 8 .42   5   8 8 .42   8 7 .33   5   8 8 .42   8 7 .29   6   9 0 .74   8 9 .02   Ion o sp h ere   20   8 7 .86   8 7 .21   15   8 9 .64   8 8 .75   9   8 8 .21   8 7 .75   19   8 9 .64   8 9 .18   13   9 0 .35   8 8 .95   Parkin so n s   14   8 8 .42   8 6 .94   10   8 8 .42   8 7 .46   7   8 8 .50   8 7 .16   10   8 9 .00   8 7 .20   6   9 2 .30   8 9 .39   Sp ectF   33   8 3 .20   7 9 .16   14   8 5 .97   8 0 .94   14   8 4 .55   8 0 .35   24   8 4 .13   8 0 .91   20   8 7 .38   8 5 .92   So n ar   36   8 4 .52   8 2 .03   12   8 6 .32   8 5 .26   17   8 3 .90   8 2 .81   33   86. 28   8 4 .64   24   8 5 .00   8 4 .51   W DBC   15   9 8 .75   9 5 .22   8   9 8 .96   9 6 .95   12   9 8 .75   9 6 .59   13   9 8 .96   9 6 .70   10   9 8 .96   9 7 .98   W BC   6   9 8 .17   9 7 .86   7   9 8 .17   9 8 .17   6   9 8 .17   9 7 .86   6   9 8 .17   9 7 .88   5   9 9 .27   9 9 .01       Re su lt of  a ve rag e   Acc uracy   by  the   sam e   al gorithm   are  al so   disp la ye in   Ta ble  3.   As   can   be   ob s er ved, the PSO _ALS alg or it hm  p rop os e in this st ud achieve six  be st avera ge  res ults, p a rtic ularl y i the   fo ll owin g:  Germ an,   hear t,   WD BC Pa r kin s ons,   S pectF  a nd  W BC   dataset s Me an w hile,  PSO  s hows  t he   best   aver a ge  in I on os phe re  datase t,   wh il MFO  s hows  the b est  av era ge  in  the Sonar  d at aset . Th detai ls  are   sh ow in Ta ble 3,  whereb y t he  acc uraci es w it t he hig hest a ver a ge  are b old e in  the table  abo ve .   The  sig nifica nc of   t he  obta ined  res ults  can   be  dete rm ined  thr ough  the  Ma nn   Wh it ney  te s as  was   dem on strat ed  by  Mc K night  and   Na j a [ 22 ] Table  acco rdi ng ly   sho ws  th Ma nn   Wh it ne sta ti sti ca test' p - values  acc o r di ng   to  val ues   of   su it abili ty Fr om   thes sta ti st ic al   t est s,  the  sp ot te diff e re nce and  i m pr ovem ents  are  pro ven  to  be  c on si d er ed  m eaningfu l T he  e xcell en ce  of  PS O _ALS  re ga rd i ng  aver a ge   accuracy  over   oth e c om par able  al gorithm is  pro ve in   Table  4.   As  t he  ta ble  is  s howi ng,  the  pr opos e al gorithm  is si gn i ficant sta ti sti cal ly  f or  m os t of the case s e xc epting s om e c ases.   Evaluation Warning : The document was created with Spire.PDF for Python.
                          IS S N :   2088 - 8708   In t J  Elec  &  C om En g,   V ol.  11 , No 3 J une  2021 :   24 14  -   2422   2420   Table  4 .   T he   M ann  W hitney   te st  p - value s for t he res ults o a ver a ge  acc uracy     Datasets   GA   MFO   FFA   PSO   W BC   0 .10 0   0 .48 5   0 .20 0   0 .31 5   Sp ectF   0 .10 0   0 .01 2   0 .00 2   0 .21 0   Ger m an   0 .00 2   0 .05 7   0 .02 8   0 .05 7   W DBC   0 .00 0   0 .01 3   0 .02 2   0 .01 2   Hear t   0 .20 0   0 .28 1   0 .20 0   0 .01 5   So n ar   0 .55 1   0 .12 5   0 .46 5   0 .00 1   Parkin so n s   0 .01 3   0 .34 2   0 .01 2   0 .23 1   Ion o sp h ere   0 .01 3   0 .00 1   0 .11 4   0 .48 5   * p  ≥  0 .05         Table  prese nt the  Ma nn   Wh it ney  te st' le vels  of   m arg inal  sig nifica nce  ( p - values )   based   on   t he   featur e num ber A can  be  seen  f r om   the  ta ble,  the  o bs e rv e di ff e ren c es  betwee al gorithm of   PS O_A L S   and   G f or   al dataset are  sign ific a nt  sta ti sti cal l and   f or   m os oth er  com petit or   m e thods  are  si gn i ficant   sta ti sti cally   ex cl ud in f or   the   PSO   al gorith m .   Figu re  shows  com par i so for  the  bes accuracy  b et ween   t he   GA,  FF A,   M F O,   P SO,  a nd   P SO_AL al gor it h m s,  and  can  be  reali ze  that  PSO_ ALS   cl ea rly   achieves  t he   best   resu lt s i m os t datase ts.       Table  5 .   T he   M ann  W hitney   te st p - value s for t he res ults o sel ect ed feat ures   Datasets   GA   FFA   MFO   PSO   W BC   0 .00 1   0 .01 2   0 .43 6   0 .91 2   Sp ectF   0 .00 1   0 .85 3   0 .01 9   0 .06 3   Ger m an   0 .00 4   1 .00 0   0 .10 5   0 .14 3   W DBC   0 .00 0   0 .10 5   0 .00 2   0 .85 3   Hear t   0 .00 1   0 .00 3   0 .00 0   0 .63 1   So n ar   0 .00 2   0 .00 0   0 .31 5   0 .63 1   Parkin so n s   0 .00 0   0 .21 8   0 .00 2   0 .08 9   Ion o sp h ere   0 .00 2   0 .00 9   0 .14 3   0 .00 2   * p  ≥  0 .05             Fig ure   4 .   Acc uracy  co m par iso n betwee n   P S O,   G A,  MF O,  FFA, a nd PSO _ALS       Figure  5 ( a prov e that  the   PSO   al gorith m   in  so m points  kee ps   no t   i m pr ovin th so luti on  i sever al   it erati ons,  w hich  m ea ns   it ’s  go st uc in  l ocal  opti m in  so m points.  This  ca b ex em plifie by  the   first  gr a ph  sho wn   in  Fi gure  wh ic dem on strat es  the  behavio of   P SO   a nd   P SO_ ALS   for  the  Hear da ta set As  s how in  F igure  5 ( a) the   so luti on  is  not  i m pr ov e fro m   it erati on num ber   110  t 180.   C ontrari wise,  i F igure  5 ( b)  gr a ph  f or  PS O _ALS  a pp li ed   to   a   sim il ar  dataset the   al gorithm   co nv e r ges  sm oo t hly  an ge ne rates  su pe rio res ults  becau se  the  beh a vior  of  th adap ti ve  loc al   search  acce pts  the  worst  so luti on  to  sk i the   al gorithm   ou fr om   local   op ti m a.  Fu rthe r,   in   the  PSO   al gor it h m   at   it erati on 120,   t he  al gorithm   de m on s trat es  it abili ty   in  gen erati ng  a a ccur acy   of   87 %.  H oweve r,   in  PS O_AL si m il ar  accuracy  is  produce after   Iterati on# 1 70. T hus,  it  ca n be  sai that t he  a ppli cat ion   of the  ad a ptive l ocal  search .   Evaluation Warning : The document was created with Spire.PDF for Python.
In t J  Elec  &  C om En g     IS S N: 20 88 - 8708       Hyb ri fe atu re  selec ti on   meth od base d o n part ic le  swarm   opti miza ti on  an d ada ptive   ...   ( Malek Al z aq e bah)   2421     (a)     (b)     Figure  5 .   The  c onve rg e nce  be hav i or of the   (a PS O ,  (b)  PS O_ALS  alg or it hm s o h eart  da ta set       In  acce ptin c and i date  s olu ti on  that  has  le s accu racy  in   order  to  jum ou from   local   optim an balance  t he  lo cal   intensific at ion   a nd  globa div e rsificat io of   t he  sea rc h,   t hat  has   bee see from   the  final   accuracy  pr oduced   by  both  a lgorit hm s.  Fo m os of   the  dataset con si der e in  this  resea r ch,   the  te ch nique  of   PSO_ ALS   yi el ded  eq ual  or  im pr ov e re su lt of  acc ur acy   and  sel ect ed  fe at ur es  num b er.   So m ehow,   it   s hould  be no te that  not all  the  dif fere nces  obser ve d are si gn i ficant  stat ist ic al l y wh en  co m par e d t ot her com petit or s.   Accor dingly Table  sho w com par ison   of  the  best  resu lt obta ine by  PS O_AL al gorithm   against  so m so luti ons  re port e in  the  li te ratur e involvi ng   the  us of  ei gh te ste dataset s.  For  the  pur pose  of  this  stud y,  acc ur acy   is  util ized   as  the  m ain   goal   wh e c om par ing   the  perform ance  of   the  al gorith m s .   In     Table  6,  the   hi gh est   Accura cy   is  sh ow i bo l d.   Ta ble   s hows   that   P SO_ ALS  pr opos e in   this   stud achieve valu es  that  are  hig hly  com par able  to  tho se  of   m os t   co m petito rs  in  te rm   of   accuracy.  H oweve r ,   PSO_ ALS   sho ws  s uperio r pe rfor m ance in  s om e d at aset s, whe c om par e to  o t her al gor it h m s.       Table  6 .   C om par in P SO_AL S w it h co ntem porar a ppr oac hes   Dataset   PSO_ ALS   Bes t - k n o wn  r esu lt   So u rce   Ger m an   8 1 .50   7 8 .63   Alzaqeb ah   et al.   [ 22 ]   Hear t   9 0 .74   8 8 .42   Alzaqeb ah   et al.   [ 22 ]   Ion o sp h ere   9 0 .35   8 9 .90   Maf arja  et  al.   [ 34 ]   Parkin so n s   9 2 .30   9 2 .00   Ku m ar  and   Ku m a r   [ 35 ]   Sp ectF   8 7 .38   8 6 .38   Alzaqeb ah   et al.   [ 22 ]   So n ar   8 5 .00   9 1 .20   Maf arja   et  al.   [ 34 ]   W DBC   9 8 .96   9 8 .96   Alzaqeb ah   et al.   [ 22 ]   W BC   9 9 .27   9 8 .35   Alzaqeb ah   et al.   [ 22 ]       5.   CONCL US I O N   AND  F UT U RE W ORKS   In   t he  c urre nt  arti cl e,  the  a ppli cat ion   of  the   PSO  Al gorith m   with  the  ad aptive  loc al   se arch  m et ho (P S O _AL al gorithm was  de m on strat ed  f or  featur e sel ect ion   prob le m In   the  c urren work,  the  al go rithm are  em plo ye t be nch m ark  of  sta ndar UCI  dataset s.  The   PSO_ ALS  al gorithm   resu lt we re  c on t r ast ed   against  these  ge ner at e from   the  four   ap pro ached   f oun in   the  li te ratur e.  The  m et ho propose in  this  wor dem on strat ed  t he  perform ance  superi or it w hen  com par e with  oth er   eq ui valent  m et ho ds,  by  balanci ng   local   intensific at io and  gl ob al  d i ve rsificat ion  of  t he  sea rch  th rou gh  the  a ppli cat ion  of  P SO  al gorithm   that  fin ds   t he  best  global  so l ution   within  th search  s pace   and   a dap ti ve   l ocal   searc m e thod   in  ex plori ng   th local   search   sp ace.  T he  util iz at ion   of   t he  adap ti ve   l ocal   search  te ch niqu i m pr ov e the   resu lt of  the  su ggest e d   al go rithm PSO_ ALS   sho ws  pe rfor m ance  that  is  su peri or   to  oth e co m par able  app r oach e s,  an al so   to  the  basic   PSO  al gorithm .       REFERE NCE S     [1]   M.  Bkassin y ,   Y.   Li ,   and  S.  K.  J a y awe er a,   surve y   on  m ac hin e - learni ng  t ec hn ique in  cogn it i ve  rad ios,   IE E E   Comm unic ati ons Surve ys   &   Tuto rials,  vol .   1 5 ,   no .   3 ,   pp .   1136 - 11 59,   2012 .   [2]   P.  Birkl e,   e al. Mac hine   Learn ing - base Approac for  Autom at ed  Ide nti f ic a ti on   of  Produce Wa te T y p es  from  Convent ional  an Unconve nt ion al   R ese rvoirs,   P et roleum  Geosta ti stic s vol .   2019 ,   no .   1 ,     pp.   1 - 5 ,   2019.   [3]   J .   Huang,   G .   L i,  Q.  Huang,   and  X.  W u,   Joint  fea tur sel ec t ion  and  class ifi catio for  m ult il ab el   le arn ing,   IEEE   transacti ons on cy berne ti cs ,   vol .   48,   no.   3,   pp.   87 6 - 889,   2017 .   Evaluation Warning : The document was created with Spire.PDF for Python.
                          IS S N :   2088 - 8708   In t J  Elec  &  C om En g,   V ol.  11 , No 3 J une  2021 :   24 14  -   2422   2422   [4]   P.  Zhu,   Q.  Xu,   Q.  Hu,  C.   Zh ang,   and  H .   Zh ao,   Multi - l abel   fea tur e   select io with  m issing  l abe ls ,   Pa tt er n   Re cogn it ion ,   vo l .   74 ,   pp .   488 50 2,   2018 .   [5]   A.  Tri p at h y ,   A.   Agrawal ,   and  S.  K.  Rat h ,   Cl assific a ti on  of  s ent iment  r eviews   using  n - gra m   m ac hine   l ea rn in appr oac h ,   E xper Syste ms   wi th Appl ic a ti ons,   vo l.   57 ,   pp .   117 12 6,   2016 .   [6]   M.  Al - Bat ah ,   S.   Mr a y y en ,   and  M.  Alza qeb ah,   Arabi Sent iment  Cla ss ifi c at ion   using  MLP  Network  Hy b r id  wit Naive   B a y es  Al gorit hm ,   Journ al  of   Computer  S ci en ce.  Sc ie n ce  Publ ic a ti ons,   vo l.   14 ,   no .   8 ,   pp .   1 104 11 14,   2018 .   [7]   V.  Bolón - Can e do,   N.   Sánch ez - Marono,   A.   Alonso - Bet an zos,   J.  M.   Beníte z,  and  F.   Herr er a,   rev ie o m ic roa rra y   dataset s a nd   app li ed   f ea tur se le c ti on   m et hods,   In formation  Sc ie nc es,   vol. 282, pp. 11 1 135,   2014 .   [8]   W .   Gao,   L .   Hu,  P.  Zha ng,   and  F.   W ang,   Feat ure   sele c ti on  b y   in t egr ating  two  gro ups  of  fea tur ev al ua t ion  cr it e ria,   Ex pert   Syste ms   wit App licati on s,  vol. 110, pp. 1 1 - 19,   2018 .   [9]   D.  Rodrigue s,  et  al . wrappe r   appr oac fo fe at ure   se lecti on  b ase on  bat   al go rit hm   and  opti m um - pat fore st,   Ex pert   Syste ms   wit App licati on s,  vol. 41,  no.   5,   pp.   2250 - 2258 ,   20 14.   [10]   M.  Mafa rj an S.  Mirj al i li,  W hal opti m izati on   appr oa ches   for  wrappe r   fea tur se le c ti o n,   Appl i ed  So f t   Computing,   vo l.  62,   pp .   441 453 ,   2018.   [11]   L.   Ji an, J.   Li,  K.   Shu,  and   H. Liu,  Multi - la b el i nf orm ed  feature se le c ti on,   I JCA I ,   pp.   1627 - 1633 2016.   [12]   K.   Hus sain,   M.  N.  M.   Sall eh ,   S.   Cheng,   and  Y .   Shi,  Meta heur i stic   re se arc h:   comprehe nsive  s urve y ,   Arti f ic ia Inte lligen ce R e view,   vo l. 52, pp.  2191 - 2233,   201 9.   [13]   A.  E .   Hass anien and  E .   Emar y ,   Sw arm i nte llige nce :   principl es,   a dvanc es,   and   ap pli c at ions ,”   C RC   Press ,   2018 .   [14]   M.  Alza qeba h ,   S.  Jawarne h,   H.  M.  Sarim,  and  S .   Abdulla h,   Be es  Algorit hm   fo Vehic le   Rout i ng  Problems  with  Ti m W indows,   Int ernati onal   J ournal  of  Ma chine  Learning  and   Computing,  vol .   8,   pp.   234 240,   2018.   [15]   T.   Zh ang,   S.   W ang,   W .   Tian,   and   Y.  Z hang ,   ACO - VRP TWR V:  new  al gorit hm   for  the   v ehi c le   r outi ng  probl ems  with  ti m windo ws   and  re - used  vehi c le base o ant   co lon y   opt imiza ti on ,   in  Si xt Int ernati ona Confe ren ce   on   Inte lligen Syst e ms   Design  and  A ppli cations ,   200 6,   pp .   390 395 .   [16]   M.  Alza qeb ah   a nd  S.  Abdulla h,   An  ada pti ve  ar t ifi cial  b ee   co lon y   and  la t e - a ccep ta nc hill - clim bing  al gorit hm   for  exa m ina t ion  t imeta b li ng,   Journal  of   Sch edul ing ,   vol. 17,  no.   3,   p p.   249 - 262 ,   201 4.   [17]   M.  Alza qeb ah  an S.  Abdullah,  Hy br id  bee  col on y   opt imiza t ion  for  ex ami nat ion  ti m eta bli ng  proble m s,   Computers  &   O perati ons R ese arch,   vo l. 54, pp. 1 42 154,   2015 .   [18]   L.   Bre zoč nik ,   I.   Fis te r,   and  V.  Po dgore lec,   Sw arm  int el li g ence  algorithms   for  fea t ure   select ion r evi ew,   Applie d   Sci en ce s,   vol. 8 ,   p.   1521 ,   2018 .   [19]   O.  Alom ari   and  Z.   A.  Othm an,   Bee al gorit hm   for  fea ture   se lecti o in  ne twork  anomal y   de tect ion,   Journal  o f   appli ed   scie n ce s   research,  vol .   8 ,   pp.   1748 1756,   2012.   [20]   Y.  W an,  M.  W a ng,   Z .   Ye ,   and  X.  Lai,   feat ure   sel ection  m e thod  base d   on  m odifi ed  bin ar code d   an col o n y   opti m iz ation  al g orit hm ,   Applied   Soft Computing,  vol. 49, pp. 248 258,   2016 .   [21]   M.  Alweshah,   et  al. Th m onar ch  butterfl y   optim iz at ion  al gor ithm   for  solv ing  f ea tur sel ection  proble m s,   Neur al  Computing  and  Appl ic a ti ons,   pp.   1 15,   2020.   [22]   M.  A.  Alz aqe b a h,   N.  Alr efai,   E.  Ahm ed ,   S.  Jawa rne h,   and  M.  Al sm adi ,   Neighbor hood  sea rch   m et hods  with  Moth   Optimiza ti o a l gorit hm   as  wr appe m et hod   fo feature  sel ec t i on  proble m s,   I nte rnational   Jou rnal  of  El e ct ri c al   and   Computer  E ngine ering   ( IJECE) vol. 10,  no.   4,   pp.   367 2 - 368 4 2020 .   [23]   J.  Kenne d y   and  R.   Ebe rha rt,   Parti cle  sw arm  opti m iz at ion ,   Proc ee dings  of  ICNN '95 - Inte rnationa Confe renc on  Neural  Ne tworks ,   1995 ,   pp .   1942 - 1948.   [24]   M.  A.  Esseghir ,   G.  Gonca lve s,   and  Y.  Slim a ni,   Adapti v p art i cl sw arm  o p ti m iz er  for   feature   s elec ti on,   Inte rnational   Co nfe renc on   Intel li gent Data Engi nee ring a nd   Au t omated  Learnin g ,   2010 ,   pp .   226 - 233.   [25]   R.   A.  Ibra him,  et   al . Im prove salp  sw arm  al go rit hm   base on  p art i cl sw arm  op ti m iz ation  for  fea ture   sel ec t ion ,   Journal  of   Ambi ent   In te l li gen c e   and  Hum anized Com puti ng,   vo l.  10,   pp .   3155 - 31 69,   2019 .   [26]   B.   Tha m araic h elvi  and  G.  Yam una,   H y brid  f irefl y   sw arm  intelligence  base f e at ure   se le c ti on  f or  m edi ca d ata   cl assifi ca t ion  an s egmenta ti on  in  SV D - N SC dom ai n,   Int ernati onal  Journal   of  Adv anc ed  R ese arch,   vol .   4,     pp.   744 - 760 ,   20 16.   [27]   K.  Menghour  and  L.   Souici - Mesl at i ,   H y brid  a co - pso  base ap proa che for  fe at ure   sele ction,   Int  J   Inte ll   Eng  S yst ,   vol.   9 ,   no .   3 ,   pp .   65 - 79,   2016 .   [28]   L.   Y .   Chuang ,   C.   H.   Yang,  an C.   H .   Y ang ,   Ta bu  sea r ch  a nd  bina r y   par ti c le   sw arm  opti m iz a ti on  for   fe at u re   sele c ti on  using   m ic roa rra y   data,   Journal   of   com putat ional biol o gy,   vo l. 16,  no.   1 2,   pp .   1689 - 170 3,   2009 .   [29]   K.  Tha ng avel  an C.   Ve lay uth a m ,   Mammogram   image  anal y s i s:  Bio - i nspired   c om puta ti ona ap proa ch,   Proc .   o the   In te rnationa l   Confe ren ce on Soft  Computing   f or P roblem  Sol v ing  ( SocP roS 20 11) ,   2012,   pp .   9 41 - 955.   [30]   E.   K .   Burke   and   Y.  B y kov,   The   la t a ccept an ce  hil l - c li m bing  h e uristi c ,   Unive rs it y   of  S ti rling ,   Te ch.   Re p ,   2012 .   [31]   M.  Alza q eba h ,   e a l. Self - Ada pti ve  B ee   Co lon y   Opt imis at ion  Algorit hm   for  t he  Flexi b le   Job  Shop  Schedul in g   Problem ,”   In te rn ati onal Journal of  Operationa R ese arch ,   2020 .   [32]   A.  Frank  and  A.  As unci on,   UCI  m ac hine   l ea rning  r eposit o r y ,   vol .   15,   p .   22,   2011 ,   [On li ne]   Avail ab l e:  htt p://ar chi ve . i cs. uci.e du /ml .   [33]   J.  Friedman,   T .   Hastie ,   and  R.   T ibshira ni The   el ements  of  sta tis ti ca learni ng ,   Springer  series  in  stati stic New   Y ork,   vol. 1, no.  10,   2001 .   [34]   M.  Mafa rja,  et  al . Evol uti on ar y   popu la t ion  d y nami cs  and  gra ss hopper   opti m iz at ion  appr o ac hes  for  featur e   sele c ti on  prob lem s,   Knowle dge - Based  Syst ems,  vol.   145 ,   pp .   25 - 45,   2018 .   [35]     R.   N.  Kum ar  an d   M.  A.  Kum ar,   novel   fea tur select ion  al gor it hm   with  demps te shafe fusio in form at ion  fo m edi ca l   da ta sets ,   In te rnat ional   Journal  of   Appli ed  Eng ine ering   Re search,  vol .   1 2,   no .   14 ,   pp .   42 05 - 4212,   2017 .   Evaluation Warning : The document was created with Spire.PDF for Python.